CN114463576B - 一种基于重加权策略的网络训练方法 - Google Patents
一种基于重加权策略的网络训练方法 Download PDFInfo
- Publication number
- CN114463576B CN114463576B CN202111602611.XA CN202111602611A CN114463576B CN 114463576 B CN114463576 B CN 114463576B CN 202111602611 A CN202111602611 A CN 202111602611A CN 114463576 B CN114463576 B CN 114463576B
- Authority
- CN
- China
- Prior art keywords
- training
- loss function
- stage
- phase
- weighting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 57
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000000750 progressive effect Effects 0.000 claims abstract description 25
- 230000006870 function Effects 0.000 claims description 34
- 230000007704 transition Effects 0.000 claims description 14
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 125000004122 cyclic group Chemical group 0.000 claims description 5
- 238000012512 characterization method Methods 0.000 abstract description 9
- 238000012545 processing Methods 0.000 abstract description 3
- 238000009826 distribution Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 241000282994 Cervidae Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- -1 carrier Substances 0.000 description 1
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 239000000306 component Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000007858 starting material Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000002268 wool Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于重加权策略的网络训练方法,其采用了基于阶段性渐进学习策略的类不均衡处理方案,可以减轻类不均衡数据集头部类与尾部类数量不均衡的问题,有效降低尾类数据过拟合与头类数据欠拟合的风险;同时,可以从学习表征的通用模式平滑过度到上层分类器的训练,在学习分类器的同时能够很好地保留原有学习到的深度表征;此外,具有较好的鲁棒性,通过控制阶段性超参数和渐进超参数来适应不均衡程度不同的数据集或样本数量不同的数据集,并进一步提高分类的准确率。
Description
技术领域
本发明涉及深度学习技术领域,尤其涉及一种基于重加权策略的网络训练方法。
背景技术
随着大规模、高质量数据集(如ImageNet ILSVRC 2012,MS COCO等数据集)的发展,基于图像识别的深度学习方法在各个领域都取得了显著的效果。然而获取大量的、人工指定标签的数据是十分庞大的工作,且在现实场景中,往往获得的数据集样本类别的分布具有不均衡的特性,即少数类(又名头部类)包含大多数样本,而大多数类(又名尾部类)只包含少数样本。通用的深度学习的方法在这种不均衡的数据集上表现往往很差,因此,类不均衡视觉识别成为一项具有挑战性的任务。
针对这种类别不均衡问题,以前的方法更多的是采用基于数据分布的性能权衡方法来减轻网络在训练过程中将更多的注意力集中在样本多的头部类别而忽略了对尾部类别的拟合。例如,重加权(Re-Weighting,RW)方法,通过分配给头部类更低的损失函数权重,而分配给尾部类更高的损失函数权重,来平衡模型对不同数量样本的类别的关注度。然而,在训练过程中,重加权通常存在对尾部类别过拟合和对头部类数据欠拟合的风险。
与这些从训练的初始阶段就开始进行重加权的性能权衡方法相比,两阶段的延迟重新加权方法(Deferred Re-Weighting,DRW)得到了更加广泛的应用。在训练的第一阶段,不采用重加权策略,而是采用通用的训练方法,在原始数据分布上训练深度神经网络,以进行对模型深层特征的学习,并将模型特征参数带到一个更好的初始状态;在第二阶段,以较小的学习率,采用重加权的方法来微调网络,进行上层分类器的学习,使分类器匹配训练样本的不均衡分布。由于网络训练过程中特征参数的更新是一个非凸性优化问题,在第二阶段学习率很小的情况下,模型深层特征参数不会偏离第一阶段得到的最佳值太远,从而能够使得到的分类器整体上有更好的性能。但是,这种两阶段的方法忽略了两个阶段中的数据集偏差或域偏移,在第二阶段由于训练模式或者训练样本分布的突然转变,会使得模型最终的分类性能有所下降。
目前还没有办法很好的解决重加权和两阶段的方法在处理类不均衡问题时存在的缺陷。因此,亟需设计一种更加弹性的、从学习表征的通用模式到学习分类器的专用模式之间平滑过度的深度学习方法来解决现实场景中类不均衡的问题,以提升网络模型分类性能。
发明内容
本发明的目的是提供一种基于重加权策略的网络训练方法,可以为深度学习模型的使用场景提供更好的扩展,降低尾类数据过拟合与头类数据欠拟合的风险,提升网络模型的分类性能。
本发明的目的是通过以下技术方案实现的:
一种基于重加权策略的网络训练方法,包括:
获取目标图像数据集,确定数据类别总数C以及各类别样本数目,设定循环训练的当前轮数为E,同时,设定阶段性超参数Emin和Emax以及渐进超参数γ;
利用采样得到的样本对卷积神经网络中进行训练,根据训练的不同阶段对损失函数采用不同的加权方式,基于损失函数使用反向传播不断更新网络的权重参数直至网络收敛达到预期目标;
其中,根据当前轮数E与阶段性超参数Emin和Emax的关系,确定当前属于训练的前期阶段、后期阶段、或是前期阶段与后期阶段之间的过渡阶段;若为前期阶段,则对每一类的损失函数赋予相同的权重;若为后期阶段,则采用成本敏感的重加权方法,即按照与每类样本数量成反比的方式对不同类别进行加权,进行分类器的学习;若为过渡阶段,则采用渐进加权的方法,即不断调整模型损失函数的加权方式,以渐进的方式从对每一类的损失函数赋予相同的权重过渡到成本敏感的重加权方法。
由上述本发明提供的技术方案可以看出,基于阶段性渐进学习策略的类不均衡处理方案可以减轻类不均衡数据集头部类与尾部类数量不均衡的问题,有效降低尾类数据过拟合与头类数据欠拟合的风险;同时,可以从学习表征的通用模式平滑过度到上层分类器的训练,在学习分类器的同时能够很好地保留原有学习到的深度表征;此外,具有较好的鲁棒性,通过控制阶段性超参数和渐进超参数来适应不均衡程度不同的数据集或样本数量不同的数据集,并进一步提高分类的准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的另一种基于重加权策略的网络训练方法的流程图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
首先对本文中可能使用的术语进行如下说明:
术语“包括”、“包含”、“含有”、“具有”或其它类似语义的描述,应被解释为非排它性的包括。例如:包括某技术特征要素(如原料、组分、成分、载体、剂型、材料、尺寸、零件、部件、机构、装置、步骤、工序、方法、反应条件、加工条件、参数、算法、信号、数据、产品或制品等),应被解释为不仅包括明确列出的某技术特征要素,还可以包括未明确列出的本领域公知的其它技术特征要素。
下面对本发明所提供的一种采用重加权策略的网络训练方法进行详细描述。本发明实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。本发明实施例中未注明具体条件者,按照本领域常规条件或制造商建议的条件进行。本发明实施例中所用试剂或仪器未注明生产厂商者,均为可以通过市售购买获得的常规产品。
本发明实施例还提供一种基于重加权策略的网络训练方法,它是一种针对类不均衡数据集的网络训练方法,其采用基于阶段性渐进加权(Phased Progressive Weighting,PPW)的策略,其采用基于阶段性渐进学习(Phased Progressive Learning,PPL)策略,并应用在对损失函数的加权上,主要原理可以描述为:获取目标图像数据集,确定数据类别总数C以及各类别样本数目,设定循环训练的当前轮数为E,同时,设定阶段性超参数Emin和Emax以及渐进超参数γ;利用采样得到的样本对卷积神经网络中进行训练,根据训练的不同阶段对损失函数采用不同的加权方式,基于损失函数使用反向传播不断更新网络的权重参数直至网络收敛达到预期目标;其中,根据当前轮数E与阶段性超参数 Emin和Emax的关系,确定当前属于训练的前期阶段、后期阶段、或是前期阶段与后期阶段之间的过渡阶段;若为前期阶段,则对每一类的损失函数赋予相同的权重,以获取更佳的对模型深层特征的表征;若为后期阶段,则以较小的学习率(即学习率小于设定的门限值)采用成本敏感的重加权方法,即按照与每类样本数量成反比的方式对不同类别进行加权,进行分类器的学习;若为过渡阶段,则采用渐进加权的方法,即不断调整模型损失函数的加权方式,以渐进的方式缓慢的从对每一类的损失函数赋予相同的权重过渡到成本敏感的重加权方法,在保证分类器学习更好的匹配数据集的不均衡特性的同时降低对已经学习到的网络深层特征表征的损坏。如图1所示,上述方案其主要包括如下步骤:
步骤1:获取目标图像数据集,确定不同数据类别总数C以及各类别样本数目ni,设定循环训练的当前轮数为E,同时确定阶段性超参数Emin和Emax以及渐进超参数γ。
本发明实施例中,所述目标图像数据集为不均衡数据集;本发明不对类别总数C以及各类别样本数目ni的具体数值进行限定。阶段性超参数Emin和Emax主要是用来界定当前轮数所处的训练阶段,这两个参数的具体数值可以由本领域技术人员根据实际情况或者经验自行设定。渐进超参数γ的具体数值可以根据目标图像数据集的数据分布来设定。
步骤2:将采样后的样本进行数据增强并作为输入送入到卷积神经网络中进行训练,并输出结果。
本步骤所涉及的数据增强方案可以通过常规技术实现,本发明不做赘述。
步骤3:将卷积神经网络训练输出的结果与样本的真实标签送入到渐进加权的损失函数中进行误差计算,在训练的不同阶段我们对损失函数采用不同的额外加权方式。
本发明实施例中,根据当前轮数与阶段性超参数Emin和Emax的关系,确定当前属于训练的前期阶段、后期阶段、或是前期阶段与后期阶段之间的过渡阶段,不同阶段使用不同加权方式,具体如下:
上式中,wi表示第i类样本的损失函数的权重,不同阶段的系数α的表达式如下:
通过上式可知,随着训练过程的进行,循环训练轮数逐渐增加,所设定的阶段性渐进加权自动完成对损失函数不平衡类权重的改变,α的变化范围介于0到1之间。具体如下:
1)如果E<Emin,则当前属于训练的前期阶段,α=0,即每一类的权重wi恒等于 1,即对每一类赋予相同的权重,此时权重与样本数量完全无关,可以保证最大限度的获取数据集特征空间的完整表征。
2)如果E>Emax,则当前属于训练的后期阶段,α=1,即权重wi=1/ni,此时加权方式是与样本数量成反比的,这样可以使分类器对头部类和尾部类都有同样的关注度,从而保证分类效果。
3)如果Emin≤E≤Emax,则当前属于前期阶段与后期阶段之间的过渡阶段,即0<α<1,/>此时采用渐进加权的方法,不断调整数据集的加权方式,以渐进的方式缓慢的从无关联样本量加权过渡到与样本量成反比的加权方式。其中渐进超参数γ控制权重变化的趋势,按照不同的数据分布来确定。样本数量对权重的影响随训练轮数的增加而增大,满足减轻头部类影响、提高尾部类影响的需求,保证分类器学习的同时降低对已经学习到的数据深层特征表征的损坏。
最终,经过阶段性加权的损失函数为其中,z表示样本的预测值(即网络模型的输出),y表示样本的真实值,Loss(z,y)可以是任意的损失函数,如交叉熵损失函数cross-entropy(CE)。
步骤4:使用反向传播不断更新网络的权重参数直至网络收敛达到预期目标,完成最终的训练。在整个神经网络的训练过程中,学习率逐渐降低,模型的训练逐渐从对网络深层特征的学习过渡到对浅层分类器的学习。
本步骤所涉及网络权重参数更新流程可参照常规技术实现,本发明不做赘述,所涉及的卷积神经网络可以是目前任意结构的形式的图像分类网络。
本发明提供的上述技术方案主要获得如下有益效果:
1)减轻了不均衡数据头部类与尾部类数量不均衡的问题,有效地缓解了现有重加权的方法对尾类数据过拟合与头类数据欠拟合的风险。
2)从学习表征的通用模式平滑过度到上层分类器的训练,在学习分类器的同时能够训练初始阶段学习到的深层特征表征。
3)具有较好的鲁棒性,通过控制阶段性超参数和渐进超参数很好地适应不均衡程度不同的数据集或样本数量不同的数据集,并进一步提高检测的准确率。
为了验证本发明上述方案的有效性,以现实场景中图像的分类为例,进行了相关实验。
选取的数据集为官方数据集CIFAR10,并通过常用的不均衡数据集转化方法,将均匀的十分类的原数据集按照指数衰减的形式转化为不均衡的样本,如表1所示。
类别 | 飞机 | 汽车 | 鸟 | 毛 | 鹿 | 狗 | 青蛙 | 马 | 船 | 卡车 |
数量 | 5000 | 2997 | 1796 | 1077 | 645 | 387 | 232 | 139 | 83 | 50 |
表1不均衡的样本数据分布
针对表1所示的不均衡的样本数据集,采用现有重加权方法(RW)与本发明阶段性渐进加权方法(PPW)的准确率比较,比较结果如表2所示。
表2准确率比较结果
在表1所示的不均衡的样本数据集上,交叉熵函数CE的准确率为70.54%,CE+RW的准确率为74.11%,CE+DRW的准确率为76.34%,而本发明提出的阶段性渐进加权方法CE+PPW准确率可达77.99%,相较于当前已知的技术方法准确率提高了1.65%。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (2)
1.一种基于重加权策略的网络训练方法,其特征在于,包括:
获取目标图像数据集,确定数据类别总数C以及各类别样本数目,设定循环训练的当前轮数为E,同时,设定阶段性超参数Emin和Emax以及渐进超参数γ;
利用采样得到的样本对卷积神经网络中进行训练,根据训练的不同阶段对损失函数采用不同的加权方式,基于损失函数使用反向传播不断更新网络的权重参数直至网络收敛达到预期目标;
其中,根据当前轮数E与阶段性超参数Emin和Emax的关系,确定当前属于训练的前期阶段、后期阶段、或是前期阶段与后期阶段之间的过渡阶段;若为前期阶段,则对每一类的损失函数赋予相同的权重;若为后期阶段,则采用成本敏感的重加权方法,即按照与每类样本数量成反比的方式对不同类别进行加权,进行分类器的学习;若为过渡阶段,则采用渐进加权的方法,即不断调整模型损失函数的加权方式,以渐进的方式从对每一类的损失函数赋予相同的权重过渡到成本敏感的重加权方法;
所述根据当前轮数与阶段性超参数Emin和Emax的关系,确定当前属于训练的前期阶段、后期阶段、或是前期阶段与后期阶段之间的过渡阶段包括:
如果E<Emin,则当前属于训练的前期阶段;
如果E>Emax,则当前属于训练的后期阶段;
如果Emin≤E≤Emax,则当前属于前期阶段与后期阶段之间的过渡阶段;
前期阶段损失函数的权重表示为:
α=0
其中,wi表示第i类样本的损失函数的权重,α表示不同训练阶段的系数;
后期阶段损失函数的权重表示为:
α=1
其中,wi表示第i类样本的损失函数的权重,α表示不同训练阶段的系数;
过段阶段损失函数的权重表示为:
其中,wi表示第i类样本的损失函数的权重,α表示不同训练阶段的系数。
2.根据权利要求1所述的一种基于重加权策略的网络训练方法,其特征在于,基于重加权策略的损失函数表示为:
其中,Loss(z,y)表示任意未加权的损失函数,z,y分别表示训练时网络输出的预测值、相应样本的真实值,LPPW表示加权后的损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111602611.XA CN114463576B (zh) | 2021-12-24 | 2021-12-24 | 一种基于重加权策略的网络训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111602611.XA CN114463576B (zh) | 2021-12-24 | 2021-12-24 | 一种基于重加权策略的网络训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114463576A CN114463576A (zh) | 2022-05-10 |
CN114463576B true CN114463576B (zh) | 2024-04-09 |
Family
ID=81407960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111602611.XA Active CN114463576B (zh) | 2021-12-24 | 2021-12-24 | 一种基于重加权策略的网络训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114463576B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115221974B (zh) * | 2022-08-03 | 2024-09-06 | 中国电信股份有限公司 | 数据识别器训练、数据识别方法、装置、电子设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110070116A (zh) * | 2019-04-08 | 2019-07-30 | 云南大学 | 基于深度树状训练策略的分段式选择集成图像分类方法 |
CN112101544A (zh) * | 2020-08-21 | 2020-12-18 | 清华大学 | 适用于长尾分布数据集的神经网络的训练方法和装置 |
WO2021023202A1 (zh) * | 2019-08-07 | 2021-02-11 | 交叉信息核心技术研究院(西安)有限公司 | 一种卷积神经网络的自蒸馏训练方法、设备和可伸缩动态预测方法 |
CN112766379A (zh) * | 2021-01-21 | 2021-05-07 | 中国科学技术大学 | 一种基于深度学习多权重损失函数的数据均衡方法 |
WO2021139237A1 (zh) * | 2020-05-14 | 2021-07-15 | 平安科技(深圳)有限公司 | 损失函数的优化方法、装置、设备及存储介质 |
-
2021
- 2021-12-24 CN CN202111602611.XA patent/CN114463576B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110070116A (zh) * | 2019-04-08 | 2019-07-30 | 云南大学 | 基于深度树状训练策略的分段式选择集成图像分类方法 |
WO2021023202A1 (zh) * | 2019-08-07 | 2021-02-11 | 交叉信息核心技术研究院(西安)有限公司 | 一种卷积神经网络的自蒸馏训练方法、设备和可伸缩动态预测方法 |
WO2021139237A1 (zh) * | 2020-05-14 | 2021-07-15 | 平安科技(深圳)有限公司 | 损失函数的优化方法、装置、设备及存储介质 |
CN112101544A (zh) * | 2020-08-21 | 2020-12-18 | 清华大学 | 适用于长尾分布数据集的神经网络的训练方法和装置 |
CN112766379A (zh) * | 2021-01-21 | 2021-05-07 | 中国科学技术大学 | 一种基于深度学习多权重损失函数的数据均衡方法 |
Non-Patent Citations (2)
Title |
---|
基于属性平衡正则化的深度零样本学习;吴凡;王康;;计算机应用与软件;20181012(10) * |
数据集类别不平衡性对迁移学习的影响分析;程磊;吴晓富;张索非;;信号处理;20200125(01) * |
Also Published As
Publication number | Publication date |
---|---|
CN114463576A (zh) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114283307B (zh) | 一种基于重采样策略的网络训练方法 | |
Zhang et al. | An efficient deep learning model for automatic modulation recognition based on parameter estimation and transformation | |
CN111638488B (zh) | 一种基于lstm网络的雷达干扰信号识别方法 | |
CN108665005B (zh) | 一种利用dcgan提高基于cnn图像识别性能的方法 | |
CN108491765A (zh) | 一种蔬菜图像的分类识别方法及系统 | |
CN107452005A (zh) | 一种结合边缘帧差和高斯混合模型的运动目标检测方法 | |
CN111126226B (zh) | 一种基于小样本学习和特征增强的辐射源个体识别方法 | |
CN108847223A (zh) | 一种基于深度残差神经网络的语音识别方法 | |
CN102855633A (zh) | 一种具有抗噪性的快速模糊聚类数字图像分割方法 | |
CN114463576B (zh) | 一种基于重加权策略的网络训练方法 | |
CN110895682A (zh) | 一种基于深度学习的sar目标识别方法 | |
CN113657491A (zh) | 一种用于信号调制类型识别的神经网络设计方法 | |
CN105701503A (zh) | 基于dbn模型的干涉sar图像分类方法 | |
CN113761805B (zh) | 一种基于时域卷积网络的可控源电磁数据去噪方法、系统、终端及可读存储介质 | |
CN114492279A (zh) | 一种模拟集成电路的参数优化方法及系统 | |
CN113256508A (zh) | 一种改进的小波变换与卷积神经网络图像去噪声的方法 | |
CN114332539A (zh) | 针对类别不均衡数据集的网络训练方法 | |
CN112014801A (zh) | 一种基于SPWVD和改进AlexNet的复合干扰识别方法 | |
CN111191685A (zh) | 一种损失函数动态加权的方法 | |
WO2023036164A1 (zh) | 一种基于物理信息神经网络的模型训练方法及相关装置 | |
CN109284662A (zh) | 一种面向水下声音信号分类的迁移学习方法 | |
CN110533151A (zh) | 一种基于万有引力定律的萤火虫优化算法 | |
CN115935154B (zh) | 基于稀疏表示与近端算法的射频信号特征遴选与识别方法 | |
CN114821184B (zh) | 一种基于均衡互补熵的长尾图像分类方法及系统 | |
Tang et al. | Data augmentation for signal modulation classification using generative adverse network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |