CN113887636A - 基于遗传算法的可选择数据增强方法及系统 - Google Patents

基于遗传算法的可选择数据增强方法及系统 Download PDF

Info

Publication number
CN113887636A
CN113887636A CN202111175442.6A CN202111175442A CN113887636A CN 113887636 A CN113887636 A CN 113887636A CN 202111175442 A CN202111175442 A CN 202111175442A CN 113887636 A CN113887636 A CN 113887636A
Authority
CN
China
Prior art keywords
data enhancement
image classification
network model
classification network
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111175442.6A
Other languages
English (en)
Other versions
CN113887636B (zh
Inventor
魏骁勇
马跃
张栩禄
杨震群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202111175442.6A priority Critical patent/CN113887636B/zh
Publication of CN113887636A publication Critical patent/CN113887636A/zh
Application granted granted Critical
Publication of CN113887636B publication Critical patent/CN113887636B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于遗传算法的可选择数据增强方法及系统,属于深度学习和图像识别领域,解决现有技术对于特定领域,所增强的数据训练集很容易产生错误,容易影响模型训练的结果,从而造成模型识别准确率变低的问题。主要方案包括:1)获取数据集;2)搭建一个图像分类网络模型和两个选择神经网络;3)基于训练集并行训练初始种群中的各图像分类网络模型并更新两个选择神经网络;4)通过验证集得到各图像分类网络模型的准确率;5)若准确率满足条件,输出两个选择神经网络的结果,否则转到步骤6;6)基于遗传算法和两个选择神经网络输出的选择概率构建新种群,将新种群替换步骤3中的种群,替换后再转到步骤3;本发明用于可选择数据增强。

Description

基于遗传算法的可选择数据增强方法及系统
技术领域
一种基于遗传算法的可选择数据增强方法及系统,用于可选择数据增强,属于深度学习和图像识别领域。
背景技术
图像识别是深度学习算法的一个重要应用,它利用计算对图像进行处理、分析和理解,以达到识别图像中的目标和对象的目的。图像的识别过程主要分为四步:图像采集、图像预处理、特征提取、图像识别。图像识别问题的数学本质属于模式空间到类别空间的映射问题。图像识别是人工智能的一个重要领域,目前利用深度学习的方法,构建网络模型进行图像识别是极其热门的方向,神经网络模型要得到满意的识别准确率,需要大量的参数,许许多多的神经网络参数都是数以百万计,要使得这些参数进行正确拟合需要大量的数据进行训练,而我们往往难以获得足够数量的数据。因此可以通过数据增强的方法不仅可以扩大训练数据集的规模,而且可以提高模型的泛化能力,降低模型对训练集的依赖性。
对于特定领域的数据集选择合适的数据增强方式至关重要,如手写数字如果对训练数据旋转180°,就有可能把6和9颠倒错乱。所以数据增强方式的选择,及其增强参数的选择都有可能影响模型的最终训练结果。
综上所述,通过数据增强方法扩大训练数据集存在如下技术问题:
1.对于特定领域,所增强的数据训练集很容易产生错误,容易影响模型训练的结果,从而造成模型识别准确率变低;
2.若基于经验或者随机搜索等方法选择数据增强方法,对网络模型完全训练来评估所选数据增强方法,往往需要花费大量时间进行多次尝试才能选择较为合适的数据增强方法。
发明内容
针对上述研究的问题,本发明的目的在于提供一种基于遗传算法的可选择数据增强方法及系统,解决现有技术对于特定领域,所增强的数据训练集很容易产生错误,容易影响模型训练的结果,从而造成模型识别准确率变低的问题。
为了达到上述目的,本发明采用如下技术方案:
一种基于遗传算法的可选择数据增强方法,包括:
步骤1:获取数据集,包括训练集和验证集;
步骤2:搭建一个图像分类网络模型和两个选择神经网络,两个选择神经网络输出各数据增强方式及其参数的候选值的选择概率以供图像分类网络模型训练前进行选择、生成初始种群和得到初始种群归一化后的整体概率,其中,初始种群由多个图像分类网络模型组成,初始种群大小自定义,各数据增强方式包括图像翻转、旋转、平移、错切、亮度调整和对比度调整,数据增强方式的参数包括翻转的翻转概率、旋转的旋转角度、平移的范围大小、错切的角度、亮度的调整幅度和对比度的调整幅度;
步骤3:基于训练集并行训练初始种群中各图像分类网络模型,并基于训练过程中各分类网络模型的输出训练两个选择神经网络;
步骤4:训练集中的图像全部输入各图像分类网络模型后,使用验证集验证训练后的各图像分类网络模型,得到各图像分类网络模型的准确率;
步骤5:若各图像分类网络模型的准确率满足给定条件,得到训练好的图像分类网络模型和两个选择神经网络,同时得到两个选择神经网络的输出结果,即得到各数据增强方式及各数据增强方式的参数的候选值的选择概率,否则转到步骤6;
步骤6:基于遗传算法和两个选择神经网络输出的选择概率构建新种群,基于新种群转到步骤3再次进行训练。
进一步,所述步骤2中的图像分类网络模型为主流网络模型;
两个选择神经网络为选择神经网络A和选择神经网络B,都为单层神经网络结构,输入为人为设定的固定值,且输入维度要小于输出维度;
选择神经网络A的输出维度为候选的数据增强方式的个数,选择神经网络A的输出为各数据增强方式的选择概率,其中,数据增强方式的个数基于经验进行选择;
选择神经网络B的输出维度为候选的数据增强方式的个数乘以各数据增强方式的参数的候选个数,选择神经网络B的输出为各数据增强方式的参数的每个候选值对应的选择概率;
基于两个选择神经网络生成图像分类网络模型种群,即生成初始种群:初始种群由多个图像分类网络模型组成,而初始种群中每个图像分类网络模型的数据增强方式及其参数的候选值由两个选择神经网络随机选择生成,初始种群中每个图像分类网络模型选择两种数据增强方式,具体为:选择神经网络A的输出为各数据增强方式的选择概率,其中,初始的选择神经网络A的选择概率都为1/M,所有数据增强方式的选择概率相加为1,所以所选择的两种数据增强的选择概率为ri1=ri2=1/M,i表示初始种群中各图像分类网络模型的编号;随机生成(0,1)之间的浮点数,将选择神经网络A输出的各数据增强方式的选择概率依次相加,相加之和首次大于随机浮点数时,此时最后做加法的选择概率对应的数据增强方式即为选择到的第一种数据增强方式,第二数据增强方式按照同样的方式进行选择,若选择结果和第一种相同,则重新选择,若重复选择10次结果皆与第一种相同,则第二种数据增强方式默认选择下一个选择概率对应的数据增强方式;
选择神经网络B的输出为各数据增强方式的参数的候选值的选择概率,初始都为1/N,选择数据增强方式的参数的候选值的选择概率的方式与选择神经网络A选择数据增强方式的方式相同;
基于图像分类模型选择的两种数据增强方式及参数的候选值得到初始种群中各图像分类网络模型的整体概率,处理后得到归一化后的概率wi;具体为:随机选择的两种数据增强方式对应选择神经网络A的选择概率分别为ri1,ri2,各数据增强方式的参数对应选择神经网络B的选择概率分别为pi11,pi21,则图像分类网络模型所选的数据增强方式的整体概率为ri1×ri2×pi11×pi21,基于上述方式,再基于初始种群中的各图像分类网络模型的两种数据增强方式及参数的候选值的选择概率进行归一化处理,得到各图像分类网络模型对应的归一化后的整体概率wi,即指权重wi
进一步,所述步骤3的具体步骤为:
图像分类网络模型训练过程中,将各图像分类网络模型的输出乘对应的权重wi加权求和作为新预测值;基于新预测值进行最小化损失函数处理,反向传播可求得两个选择神经网络的权值的梯度,再通过梯度下降更新两个选择神经网络,新预测值的具体公式如下:
Figure BDA0003295312480000031
其中,hi(x)是各图像分类网络模型的输出,x表示各图像分类网络模型的输入,H(x)为加权求和后的新预测值,n为初始种群的大小,i表示初始种群中各图像分类网络模型的编号,wi为各图像分类网络模型归一化后得到的整体概率,1>wi>0,
Figure BDA0003295312480000032
进一步,所述步骤4中使用验证集验证训练后的图像分类网络模型,得到图像分类网络模型的准确率的公式如下:
Figure BDA0003295312480000033
其中,xj表示图像分类网络模型的输入,yj表示xj对应的标签,f(xj)表示xj的预测结果,f表示图像分类网络模型,D表示验证集,m表示验证集样本总数,j表示验证集中的样本的序号,acc(f;D)表示图像分类网络模型f在验证集D上的识别准确率,I(a)为指示函数,取值如下:
Figure BDA0003295312480000034
进一步,所述步骤6的具体步骤为:
将经过步骤3训练后的初始种群中的各图像分类网络模型按照准确率从高到低的顺序进行排序;
排序后,排名后20%的图像分类网络模型从排名前20%的图像分类网络模型中随机选择一个复制其权值,并依据更新后的选择神经网络A的选择概率选择两种不同的数据增强方式,同时依据更新后的选择神经网络B的选择概率选择对应新选择的两种数据增强方式对应的参数的候选值;
20%复制了网络权值并重新选择了数据增强方式及其参数的候选值的图像分类网络模型和前未作变动的80%的图像分类网络模型作为新种群,替换步骤3中的种群,替换后再转到步骤3。
一种基于遗传算法的可选择数据增强系统,包括:
数据采集模块:获取数据集,包括训练集和验证集;
模型搭建模块:搭建一个图像分类网络模型和两个选择神经网络,两个选择神经网络输出各数据增强方式及其参数的候选值的选择概率以供图像分类网络模型训练前进行选择、生成初始种群和得到初始种群归一化后的整体概率,其中,初始种群由多个图像分类网络模型组成,初始种群大小自定义,各数据增强方式包括图像翻转、旋转、平移、错切、亮度调整和对比度调整,数据增强方式的参数包括翻转的翻转概率、旋转的旋转角度、平移的范围大小、错切的角度、亮度的调整幅度和对比度的调整幅度;
模型训练模块:基于训练集并行训练初始种群中各图像分类网络模型,并基于训练过程中各分类网络模型的输出训练两个选择神经网络;
模型验证模块:训练集中的图像全部输入各图像分类网络模型后,使用验证集验证训练后的各图像分类网络模型,得到各图像分类网络模型的准确率;
判断模块:若各图像分类网络模型的准确率满足给定条件,得到训练好的图像分类网络模型和两个选择神经网络,同时得到两个选择神经网络的输出结果,即得到各数据增强方式及各数据增强方式的参数的候选值的选择概率,否则转到更新模块;
更新模块:基于遗传算法和两个选择神经网络输出的选择概率构建新种群,基于新种群转到模型训练模块再次进行训练。
进一步,所述模型搭建模块中的图像分类网络模型为主流网络模型;
两个选择神经网络为选择神经网络A和选择神经网络B,都为单层神经网络结构,输入为人为设定的固定值,且输入维度要小于输出维度;
选择神经网络A的输出维度为候选的数据增强方式的个数,选择神经网络A的输出为各数据增强方式的选择概率,其中,数据增强方式的个数基于经验进行选择;
选择神经网络B的输出维度为候选的数据增强方式的个数乘以各数据增强方式的参数的候选个数,选择神经网络B的输出为各数据增强方式的参数的每个候选值对应的选择概率;
基于两个选择神经网络生成图像分类网络模型种群,即生成初始种群:初始种群由多个图像分类网络模型组成,而初始种群中每个图像分类网络模型的数据增强方式及其参数的候选值由两个选择神经网络随机选择生成,初始种群中每个图像分类网络模型选择两种数据增强方式,具体为:选择神经网络A的输出为各数据增强方式的选择概率,其中,初始的选择神经网络A的选择概率都为1/M,所有数据增强方式的选择概率相加为1,所以所选择的两种数据增强的选择概率为ri1=ri2=1/M,i表示初始种群中各图像分类网络模型的编号;随机生成(0,1)之间的浮点数,将选择神经网络A输出的各数据增强方式的选择概率依次相加,相加之和首次大于随机浮点数时,此时最后做加法的选择概率对应的数据增强方式即为选择到的第一种数据增强方式,第二数据增强方式按照同样的方式进行选择,若选择结果和第一种相同,则重新选择,若重复选择10次结果皆与第一种相同,则第二种数据增强方式默认选择下一个选择概率对应的数据增强方式;
选择神经网络B的输出为各数据增强方式的参数的候选值的选择概率,初始都为1/N,选择数据增强方式的参数的候选值的选择概率的方式与选择神经网络A选择数据增强方式的方式相同;
基于图像分类模型选择的两种数据增强方式及参数的候选值得到初始种群中各图像分类网络模型的整体概率,处理后得到归一化后的概率wi;具体为:随机选择的两种数据增强方式对应选择神经网络A的选择概率分别为ri1,ri2,各数据增强方式的参数对应选择神经网络B的选择概率分别为pi11,pi21,则图像分类网络模型所选的数据增强方式的整体概率为ri1×ri2×pi11×pi21,基于上述方式,再基于初始种群中的各图像分类网络模型的两种数据增强方式及参数的候选值的选择概率进行归一化处理,得到各图像分类网络模型对应的归一化后的整体概率wi,即指权重wi
进一步,所述模型训练模块的具体实现步骤为:
图像分类网络模型训练过程中,将各图像分类网络模型的输出乘对应的权重wi加权求和作为新预测值;基于新预测值进行最小化损失函数处理,反向传播可求得两个选择神经网络的权值的梯度,再通过梯度下降更新两个选择神经网络,新预测值的具体公式如下:
Figure BDA0003295312480000051
其中,hi(x)是各图像分类网络模型的输出,x表示各图像分类网络模型的输入,H(x)为加权求和后的新预测值,n为初始种群的大小,i表示初始种群中各图像分类网络模型的编号,wi为各图像分类网络模型归一化后得到的整体概率,1>wi>0,
Figure BDA0003295312480000061
进一步,所述模型验证模块中使用验证集验证训练后的图像分类网络模型,得到图像分类网络模型的准确率的公式如下:
Figure BDA0003295312480000062
其中,xj表示图像分类网络模型的输入,yj表示xj对应的标签,f(xj)表示xj的预测结果,f表示图像分类网络模型,D表示验证集,m表示验证集样本总数,j表示验证集中的样本的序号,acc(f;D)表示图像分类网络模型f在验证集D上的识别准确率,I(a)为指示函数,取值如下:
Figure BDA0003295312480000063
进一步,所述更新模块的具体实现步骤为:
将经过模型训练模块训练后的初始种群中的各图像分类网络模型按照准确率从高到低的顺序进行排序;
排序后,排名后20%的图像分类网络模型从排名前20%的图像分类网络模型中随机选择一个复制其权值,并依据更新后的选择神经网络A的选择概率选择两种不同的数据增强方式,同时依据更新后的选择神经网络B的选择概率选择对应新选择的两种数据增强方式对应的参数的候选值;
20%复制了网络权值并重新选择了数据增强方式及其参数的候选值的图像分类网络模型和前未作变动的80%的图像分类网络模型作为新种群,替换模型训练模块中的种群,替换后再转到模型训练模块。
本发明同现有技术相比,其有益效果表现在:
一、本发明为选择合适的数据增强方式及参数的候选值构建了选择神经网络A和B,并基于遗传算法,分别为数据增强方式及其参数的候选值生成选择概率,在图像分类网络模型的训练过程中同时训练选择神经网络A和B,这样可以在训练中动态优化数据增强方式及参数,用户可基于选择神经网络A和B最终的训练结果选择合适的数据增强方式及参数的候选值,并且可以应用到此数据集的其他训练任务中,以提高训练结果。
二、本发明中的种群中的各图像分类网络模型可并行训练,因此整体训练过程不会花费更多额外时间,且能够交互相互之间的结果,种群中图像分类网络模型每进行一轮训练对比相互之间的性能表现,表现较差的图像分类网络模型可共享表现优秀的图像分类网络模型的权值参数,保留表现优秀的图像分类网络模型,并将各图像分类网络模型的输出通过加权求和的方式进一步优化选择神经网络,相对基于经验或者随机搜索等方法,能够更快的搜索到更加优秀的数据增强方法。
附图说明
图1为本发明算法流程图;
图2为步骤3前向传播示意图;
具体实施方式
下面将结合附图及具体实施方式对本发明作进一步的描述。
本发明实施提出了一种基于遗传算法的可选择数据增强方法,能够为特定数据集生成其合适的数据增强方式和数据增强参数,从而提高模型的泛化能力。
本发明主要流程包括:1)获取数据集;2)搭建一个图像分类网络模型和两个选择神经网络并生成初始种群;3)基于训练集并行训练初始种群中的各图像分类网络模型并更新两个选择神经网络;4)通过验证集得到各图像分类网络模型的准确率;5)若准确率满足条件,运行结束,输出两个选择神经网络的结果(输出结果为数据增强方式及参数的候选值的选择概率,用户可基于此结果选择数据增强方法用于此数据集其他训练任务,可提高其训练结果),否则转到步骤6;6)基于遗传算法和两个选择神经网络输出的选择概率构建新种群,将新种群替换步骤3中的种群,替换后再转到步骤3;具体实现步骤如下:
一、获取数据集
网络上有多种公开的数据集,用户也可以使用自己的数据集。本发明采用公开的Cifar-10数据集作为示范,它包含60000张32X32的RGB彩色图片,总共10个分类。其中训练集有50000张,测试集有10000张。将原训练集按照9:1的比例划分为新的训练集和验证集,训练集用于神经网络模型的训练,验证集用于验证图像分类网络模型在某个训练阶段的准确率,测试集可用于测试模型的最终实验效果。
二、搭建一个图像分类网络模型和两个选择神经网络,并生成初始种群
准备一个图像分类网络模型,以及2个选择神经网络(A,B)。图像分类网络模型可采用多种主流模型。选择神经网络结构为单层神经网络,选择神经网络的输入可为人为设定固定值,且输入维度要小于输出维度。选择神经网络A的输出维度为候选的数据增强方式个数,如图像旋转、色彩变幻、裁剪等,网络输出经softmax函数生成对应数据增强方式的选择概率。选择神经网络B的输出维度为候选数据增强方式个数乘以各数据增强方式的参数的候选个数,本发明为每个数据增强方式的参数取5个候选值,如图像旋转的角度的候选值[30°,60°,90°,120°,150°],即选择神经网络B输出维度为候选的数据增强方式个数乘以5。选择神经网络B的每5个输出进行一次softmax,以此对应每个数据增强方式的5个参数的选择概率。选择神经网络A和B的权值初始化为1,以保证输出的各初始选择概率相等。
搭建一个图像分类网络模型和两个选择神经网络(A,B),图像分类网络模型可采用主流网络模型,如ResNet-18,选择神经网络采用单层神经网络结构,选择神经网络的输入可为人为设定固定值,且输入维度要小于输出维度。图像分类网络模型用于针对数据集进行训练以产生正确分类结果,选择神经网络输出各数据增强方式及其参数的候选值的选择概率以供分类网络模型训练前进行选择。
选择神经网络A的输出维度为候选数据增强方式个数,数据增强可选择常用的增强方式,如图像翻转、旋转、平移、错切、亮度调整和对比度调整等,用户可基于经验进行选择。选择神经网络A的输出经softmax函数生成对应数据增强方式的选择概率。
选择神经网络B的输出维度为候选数据增强方式个数乘以各数据增强方式的参数的候选个数,如翻转的参数可为翻转概率,取候选值为[0,0.25,0.5,0.75,1.0],旋转的参数为旋转角度,取候选值为[30°,60°,90°,120°,150°]。选择神经网络B的每5个输出进行一次softmax,以此对应每个数据增强方式的参数的5个候选值的选择概率。
选择神经网络A和选择神经网络B的权值初始化都为1,若有10种数据增强方式,则选择神经网络A输出维度为10,输出的初始的选择概率为[r0,r1,…,r9],均为1/10,若每种数据增强方式有5个候选值,则选择神经网络B输出维度为10ⅹ5=50,输出的每种数据增强方式的参数的候选值的初始选择概率为[p00,p01,p02,p03,p04,p10,p11,…,p90,p91,p92,p93,p94],均为1/5,序号0数据增强方式的选择概率对应为r0,其参数的候选值的选择概率对应为[p00,p01,p02,p03,p04]。选择神经网络A和选择神经网络B更新后,输出的选择概率也会更新。
生成图像分类网络模型种群,即初始种群,初始种群中每个图像分类网络模型选择两种数据增强方式,数据增强方式及参数按照选择神经网络的选择概率随机选择生成,假设分类模型model_i所选的两种数据增强方式对应选择神经网络A的选择概率分别为ri1,ri2,若为初始种群,则ri1=ri2=1/10,而其数据增强方式的参数对应选择神经网络B的选择概率分别为pi11,pi21,若为初始种群,则pi11=pi21=1/5,则在下一步求归一化的整体概率过程中令model_i所选的数据增强整体概率为ri1×ri2×pi11×pi21,再对整个初始种群中各图像分类网络模型的此整体概率进行归一化处理,得归一化后的值为wi
初始种群中每个图像分类网络模型选择两种数据增强方式,具体为:选择神经网络A的输出为各数据增强方式的选择概率,其中,初始的选择神经网络A的选择概率都为1/M,所有数据增强方式的选择概率相加为1,所以所选择的两种数据增强的选择概率为ri1=ri2=1/M,i表示初始种群中各图像分类网络模型的编号;随机生成(0,1)之间的浮点数,将选择神经网络A输出的各数据增强方式的选择概率依次相加,相加之和首次大于随机浮点数时,此时最后做加法的选择概率对应的数据增强方式即为选择到的第一种数据增强方式,第二数据增强方式按照同样的方式进行选择(即重新随机生成(0,1)之间的浮点数,将选择神经网络A输出的各数据增强方式的选择概率依次相加,相加之和首次大于随机浮点数时,此时最后做加法的选择概率对应的数据增强方式即为选择到的第二种数据增强方式),若选择结果和第一种相同,则重新选择,若重复选择10次结果皆与第一种相同,则第二种数据增强方式默认选择下一个选择概率对应的数据增强方式;
选择神经网络B的输出为各数据增强方式的参数的候选值的选择概率,初始都为1/N,选择数据增强方式的参数的候选值的选择概率的方式与选择神经网络A选择数据增强方式的方式相同;
三、基于训练集并行训练初始种群中的各图像分类网络模型并更新两个选择神经网络
图像分类网络模型训练过程中,将各图像分类网络模型的输出乘对应的权重wi加权求和作为新预测值;基于新预测值进行最小化损失函数处理,反向传播可求得两个选择神经网络的权值的梯度,再通过梯度下降更新两个选择神经网络。新预测值的具体公式如下:
Figure BDA0003295312480000091
其中,hi(x)是各图像分类网络模型的输出,H(x)为加权求和后的新预测值,n为初始种群的大小,i表示初始种群中各图像分类网络模型的编号,wi为各图像分类网络模型归一化后得到的整体概率,1>wi>0,
Figure BDA0003295312480000092
四、通过验证集得到各图像分类网络模型的准确率
训练集中的图片完全输入神经网络,即训练一个epoch周期后,此时使用验证集作为神经网络输入,计算各个网络模型的图像识别准确率,公式如下:
Figure BDA0003295312480000093
其中,xj表示图像分类网络模型的输入,yj表示xj对应的标签,f(xj)表示xj的预测结果,f表示图像分类网络模型,D表示验证集,m表示验证集样本总数,j表示验证集中的样本的序号,acc(f;D)表示图像分类网络模型f在验证集D上的识别准确率,I(a)为指示函数,取值如下:
Figure BDA0003295312480000101
五、判断各图像分类网络模型的准确率是否满足条件
根据准确率的设定值,判断初始种群中所有图像分类网络模型的准确率是否达到设定值,若所有模型均已满足条件,则可以输出选择神经网络的结果,可以得到各数据增强方式及其参数的选择概率。若不满足条件,则转到步骤六。
六、构建新种群,重复训练过程
按照步骤4得到的准确率,经过步骤三训练后的初始种群中的各图像分类网络模型按照准确率从高到低的顺序进行排序,排名后,排名后20%的分类模型从排名前20%的图像分类网络模型中选择一个并复制其网络模型权值,并依照更新后的选择神经网络A的新选择概率[r0,r1,…,r9]选择两种不同的数据增强方式(两种数据增强方式不重复),再依照更新后的选择神经网络B的新选择概率[p00,p01,p02,p03,p04,p10,p11,…,p90,p91,p92,p93,p94],从中选择这两种数据增强方式对应的参数。将这些复制了网络权值并重新选择了数据增强方式及其参数20%图像分类网络模型和未作变动的80%图像分类网络模型作为新种群,替换步骤三中的种群,替换后再转到步骤三进行训练。
以上仅是本发明众多具体应用范围中的代表性实施例,对本发明的保护范围不构成任何限制。凡采用变换或是等效替换而形成的技术方案,均落在本发明权利保护范围之内。

Claims (10)

1.一种基于遗传算法的可选择数据增强方法,其特征在于,包括:
步骤1:获取数据集,包括训练集和验证集;
步骤2:搭建一个图像分类网络模型和两个选择神经网络,两个选择神经网络输出各数据增强方式及其参数的候选值的选择概率以供图像分类网络模型训练前进行选择、生成初始种群和得到初始种群归一化后的整体概率,其中,初始种群由多个图像分类网络模型组成,初始种群大小自定义,各数据增强方式包括图像翻转、旋转、平移、错切、亮度调整和对比度调整,数据增强方式的参数包括翻转的翻转概率、旋转的旋转角度、平移的范围大小、错切的角度、亮度的调整幅度和对比度的调整幅度;
步骤3:基于训练集并行训练初始种群中各图像分类网络模型,并基于训练过程中各分类网络模型的输出训练两个选择神经网络;
步骤4:训练集中的图像全部输入各图像分类网络模型后,使用验证集验证训练后的各图像分类网络模型,得到各图像分类网络模型的准确率;
步骤5:若各图像分类网络模型的准确率满足给定条件,得到训练好的图像分类网络模型和两个选择神经网络,同时得到两个选择神经网络的输出结果,即得到各数据增强方式及各数据增强方式的参数的候选值的选择概率,否则转到步骤6;
步骤6:基于遗传算法和两个选择神经网络输出的选择概率构建新种群,基于新种群转到步骤3再次进行训练。
2.根据权利要求1所述的一种基于遗传算法的可选择数据增强方法,其特征在于,
所述步骤2中的图像分类网络模型为主流网络模型;
两个选择神经网络为选择神经网络A和选择神经网络B,都为单层神经网络结构,输入为人为设定的固定值,且输入维度要小于输出维度;
选择神经网络A的输出维度为候选的数据增强方式的个数,选择神经网络A的输出为各数据增强方式的选择概率,其中,数据增强方式的个数基于经验进行选择;
选择神经网络B的输出维度为候选的数据增强方式的个数乘以各数据增强方式的参数的候选个数,选择神经网络B的输出为各数据增强方式的参数的每个候选值对应的选择概率;
基于两个选择神经网络生成图像分类网络模型种群,即生成初始种群:初始种群由多个图像分类网络模型组成,而初始种群中每个图像分类网络模型的数据增强方式及其参数的候选值由两个选择神经网络随机选择生成,初始种群中每个图像分类网络模型选择两种数据增强方式,具体为:选择神经网络A的输出为各数据增强方式的选择概率,其中,初始的选择神经网络A的选择概率都为1/M,所有数据增强方式的选择概率相加为1,所以所选择的两种数据增强的选择概率为ri1=ri2=1/M,i表示初始种群中各图像分类网络模型的编号;随机生成(0,1)之间的浮点数,将选择神经网络A输出的各数据增强方式的选择概率依次相加,相加之和首次大于随机浮点数时,此时最后做加法的选择概率对应的数据增强方式即为选择到的第一种数据增强方式,第二数据增强方式按照同样的方式进行选择,若选择结果和第一种相同,则重新选择,若重复选择10次结果皆与第一种相同,则第二种数据增强方式默认选择下一个选择概率对应的数据增强方式;
选择神经网络B的输出为各数据增强方式的参数的候选值的选择概率,初始都为1/N,选择数据增强方式的参数的候选值的选择概率的方式与选择神经网络A选择数据增强方式的方式相同;
基于图像分类模型选择的两种数据增强方式及参数的候选值得到初始种群中各图像分类网络模型的整体概率,处理后得到归一化后的概率wi;具体为:随机选择的两种数据增强方式对应选择神经网络A的选择概率分别为ri1,ri2,各数据增强方式的参数对应选择神经网络B的选择概率分别为pi11,pi21,则图像分类网络模型所选的数据增强方式的整体概率为ri1×ri2×pi11×pi21,基于上述方式,再基于初始种群中的各图像分类网络模型的两种数据增强方式及参数的候选值的选择概率进行归一化处理,得到各图像分类网络模型对应的归一化后的整体概率wi,即指权重wi
3.根据权利要求2所述的一种基于遗传算法的可选择数据增强方法,其特征在于,所述步骤3的具体步骤为:
图像分类网络模型训练过程中,将各图像分类网络模型的输出乘对应的权重wi加权求和作为新预测值;基于新预测值进行最小化损失函数处理,反向传播可求得两个选择神经网络的权值的梯度,再通过梯度下降更新两个选择神经网络,新预测值的具体公式如下:
Figure FDA0003295312470000021
其中,hi(x)是各图像分类网络模型的输出,x表示各图像分类网络模型的输入,H(x)为加权求和后的新预测值,n为初始种群的大小,i表示初始种群中各图像分类网络模型的编号,wi为各图像分类网络模型归一化后得到的整体概率,
Figure FDA0003295312470000022
4.根据权利要求3所述的一种基于遗传算法的可选择数据增强方法,其特征在于,所述步骤4中使用验证集验证训练后的图像分类网络模型,得到图像分类网络模型的准确率的公式如下:
Figure FDA0003295312470000023
其中,xj表示图像分类网络模型的输入,yj表示xj对应的标签,f(xj)表示xj的预测结果,f表示图像分类网络模型,D表示验证集,m表示验证集样本总数,j表示验证集中的样本的序号,acc(f;D)表示图像分类网络模型f在验证集D上的识别准确率,I(a)为指示函数,取值如下:
Figure FDA0003295312470000031
5.根据权利要求4所述的一种基于遗传算法的可选择数据增强方法,其特征在于,所述步骤6的具体步骤为:
将经过步骤3训练后的初始种群中的各图像分类网络模型按照准确率从高到低的顺序进行排序;
排序后,排名后20%的图像分类网络模型从排名前20%的图像分类网络模型中随机选择一个复制其权值,并依据更新后的选择神经网络A的选择概率选择两种不同的数据增强方式,同时依据更新后的选择神经网络B的选择概率选择对应新选择的两种数据增强方式对应的参数的候选值;
20%复制了网络权值并重新选择了数据增强方式及其参数的候选值的图像分类网络模型和前未作变动的80%的图像分类网络模型作为新种群,替换步骤3中的种群,替换后再转到步骤3。
6.一种基于遗传算法的可选择数据增强系统,其特征在于,包括:
数据采集模块:获取数据集,包括训练集和验证集;
模型搭建模块:搭建一个图像分类网络模型和两个选择神经网络,两个选择神经网络输出各数据增强方式及其参数的候选值的选择概率以供图像分类网络模型训练前进行选择、生成初始种群和得到初始种群归一化后的整体概率,其中,初始种群由多个图像分类网络模型组成,初始种群大小自定义,各数据增强方式包括图像翻转、旋转、平移、错切、亮度调整和对比度调整,数据增强方式的参数包括翻转的翻转概率、旋转的旋转角度、平移的范围大小、错切的角度、亮度的调整幅度和对比度的调整幅度;
模型训练模块:基于训练集并行训练初始种群中各图像分类网络模型,并基于训练过程中各分类网络模型的输出训练两个选择神经网络;
模型验证模块:训练集中的图像全部输入各图像分类网络模型后,使用验证集验证训练后的各图像分类网络模型,得到各图像分类网络模型的准确率;
判断模块:若各图像分类网络模型的准确率满足给定条件,得到训练好的图像分类网络模型和两个选择神经网络,同时得到两个选择神经网络的输出结果,即得到各数据增强方式及各数据增强方式的参数的候选值的选择概率,否则转到更新模块;
更新模块:基于遗传算法和两个选择神经网络输出的选择概率构建新种群,基于新种群转到模型训练模块再次进行训练。
7.根据权利要求6所述的一种基于遗传算法的可选择数据增强系统,其特征在于,
所述模型搭建模块中的图像分类网络模型为主流网络模型;
两个选择神经网络为选择神经网络A和选择神经网络B,都为单层神经网络结构,输入为人为设定的固定值,且输入维度要小于输出维度;
选择神经网络A的输出维度为候选的数据增强方式的个数,选择神经网络A的输出为各数据增强方式的选择概率,其中,数据增强方式的个数基于经验进行选择;
选择神经网络B的输出维度为候选的数据增强方式的个数乘以各数据增强方式的参数的候选个数,选择神经网络B的输出为各数据增强方式的参数的每个候选值对应的选择概率;
基于两个选择神经网络生成图像分类网络模型种群,即生成初始种群:初始种群由多个图像分类网络模型组成,而初始种群中每个图像分类网络模型的数据增强方式及其参数的候选值由两个选择神经网络随机选择生成,初始种群中每个图像分类网络模型选择两种数据增强方式,具体为:选择神经网络A的输出为各数据增强方式的选择概率,其中,初始的选择神经网络A的选择概率都为1/M,所有数据增强方式的选择概率相加为1,所以所选择的两种数据增强的选择概率为ri1=ri2=1/M,i表示初始种群中各图像分类网络模型的编号;随机生成(0,1)之间的浮点数,将选择神经网络A输出的各数据增强方式的选择概率依次相加,相加之和首次大于随机浮点数时,此时最后做加法的选择概率对应的数据增强方式即为选择到的第一种数据增强方式,第二数据增强方式按照同样的方式进行选择,若选择结果和第一种相同,则重新选择,若重复选择10次结果皆与第一种相同,则第二种数据增强方式默认选择下一个选择概率对应的数据增强方式;
选择神经网络B的输出为各数据增强方式的参数的候选值的选择概率,初始都为1/N,选择数据增强方式的参数的候选值的选择概率的方式与选择神经网络A选择数据增强方式的方式相同;
基于图像分类模型选择的两种数据增强方式及参数的候选值得到初始种群中各图像分类网络模型的整体概率,处理后得到归一化后的概率wi;具体为:随机选择的两种数据增强方式对应选择神经网络A的选择概率分别为ri1,ri2,各数据增强方式的参数对应选择神经网络B的选择概率分别为pi11,pi21,则图像分类网络模型所选的数据增强方式的整体概率为ri1×ri2×pi11×pi21,基于上述方式,再基于初始种群中的各图像分类网络模型的两种数据增强方式及参数的候选值的选择概率进行归一化处理,得到各图像分类网络模型对应的归一化后的整体概率wi,即指权重wi
8.根据权利要求7所述的一种基于遗传算法的可选择数据增强系统,其特征在于,所述模型训练模块的具体实现步骤为:
图像分类网络模型训练过程中,将各图像分类网络模型的输出乘对应的权重wi加权求和作为新预测值;基于新预测值进行最小化损失函数处理,反向传播可求得两个选择神经网络的权值的梯度,再通过梯度下降更新两个选择神经网络,新预测值的具体公式如下:
Figure FDA0003295312470000051
其中,hi(x)是各图像分类网络模型的输出,x表示各图像分类网络模型的输入,H(x)为加权求和后的新预测值,n为初始种群的大小,i表示初始种群中各图像分类网络模型的编号,wi为各图像分类网络模型归一化后得到的整体概率,
Figure FDA0003295312470000052
9.根据权利要求8所述的一种基于遗传算法的可选择数据增强系统,其特征在于,所述模型验证模块中使用验证集验证训练后的图像分类网络模型,得到图像分类网络模型的准确率的公式如下:
Figure FDA0003295312470000053
其中,xj表示图像分类网络模型的输入,yj表示xj对应的标签,f(xj)表示xj的预测结果,f表示图像分类网络模型,D表示验证集,m表示验证集样本总数,j表示验证集中的样本的序号,acc(f;D)表示图像分类网络模型f在验证集D上的识别准确率,I(a)为指示函数,取值如下:
Figure FDA0003295312470000054
10.根据权利要求9所述的一种基于遗传算法的可选择数据增强系统,其特征在于,所述更新模块的具体实现步骤为:
将经过模型训练模块训练后的初始种群中的各图像分类网络模型按照准确率从高到低的顺序进行排序;
排序后,排名后20%的图像分类网络模型从排名前20%的图像分类网络模型中随机选择一个复制其权值,并依据更新后的选择神经网络A的选择概率选择两种不同的数据增强方式,同时依据更新后的选择神经网络B的选择概率选择对应新选择的两种数据增强方式对应的参数的候选值;
20%复制了网络权值并重新选择了数据增强方式及其参数的候选值的图像分类网络模型和前未作变动的80%的图像分类网络模型作为新种群,替换模型训练模块中的种群,替换后再转到模型训练模块。
CN202111175442.6A 2021-10-09 2021-10-09 基于遗传算法的可选择数据增强方法及系统 Active CN113887636B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111175442.6A CN113887636B (zh) 2021-10-09 2021-10-09 基于遗传算法的可选择数据增强方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111175442.6A CN113887636B (zh) 2021-10-09 2021-10-09 基于遗传算法的可选择数据增强方法及系统

Publications (2)

Publication Number Publication Date
CN113887636A true CN113887636A (zh) 2022-01-04
CN113887636B CN113887636B (zh) 2023-04-07

Family

ID=79005792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111175442.6A Active CN113887636B (zh) 2021-10-09 2021-10-09 基于遗传算法的可选择数据增强方法及系统

Country Status (1)

Country Link
CN (1) CN113887636B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980298A (zh) * 2010-11-04 2011-02-23 西安电子科技大学 基于多智能体遗传聚类算法的图像分割方法
CN105279555A (zh) * 2015-10-28 2016-01-27 清华大学 一种基于进化算法的自适应学习神经网络实现方法
US20180114116A1 (en) * 2016-10-26 2018-04-26 Sentient Technologies (Barbados) Limited Cooperative evolution of deep neural network structures
CN108009525A (zh) * 2017-12-25 2018-05-08 北京航空航天大学 一种基于卷积神经网络的无人机对地特定目标识别方法
CN109034388A (zh) * 2018-07-27 2018-12-18 湖北中烟工业有限责任公司 一种基于遗传算法优化神经网络的卷烟材料与主流烟气成分的预测模型
CN111445023A (zh) * 2020-02-18 2020-07-24 中南林业科技大学 遗传算法优化的bp神经网络gf-2影像森林分类方法
CN112001887A (zh) * 2020-07-20 2020-11-27 南通大学 用于婴幼儿脑病历图像分割的全卷积遗传神经网络优化方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980298A (zh) * 2010-11-04 2011-02-23 西安电子科技大学 基于多智能体遗传聚类算法的图像分割方法
CN105279555A (zh) * 2015-10-28 2016-01-27 清华大学 一种基于进化算法的自适应学习神经网络实现方法
US20180114116A1 (en) * 2016-10-26 2018-04-26 Sentient Technologies (Barbados) Limited Cooperative evolution of deep neural network structures
CN108009525A (zh) * 2017-12-25 2018-05-08 北京航空航天大学 一种基于卷积神经网络的无人机对地特定目标识别方法
CN109034388A (zh) * 2018-07-27 2018-12-18 湖北中烟工业有限责任公司 一种基于遗传算法优化神经网络的卷烟材料与主流烟气成分的预测模型
CN111445023A (zh) * 2020-02-18 2020-07-24 中南林业科技大学 遗传算法优化的bp神经网络gf-2影像森林分类方法
CN112001887A (zh) * 2020-07-20 2020-11-27 南通大学 用于婴幼儿脑病历图像分割的全卷积遗传神经网络优化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PURNEET KAUR等: "fingerprint recognition using genetic algorithm and neural network" *
陈广胜;陈守玉;景维鹏;李超;: "基于遗传算法与全卷积网络的遥感影像像素级分类方法" *

Also Published As

Publication number Publication date
CN113887636B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
Li et al. LGM-Net: Learning to generate matching networks for few-shot learning
Li et al. A deep adversarial learning methodology for designing microstructural material systems
CN111428818B (zh) 基于神经通路激活状态的深度学习模型测试方法与装置
US20180341862A1 (en) Integrating a memory layer in a neural network for one-shot learning
CN112288086A (zh) 一种神经网络的训练方法、装置以及计算机设备
KR101939209B1 (ko) 신경망 기반의 텍스트의 카테고리를 분류하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
WO2016095068A1 (en) Pedestrian detection apparatus and method
CN111723914A (zh) 一种基于卷积核预测的神经网络架构搜索方法
CN113011529B (zh) 文本分类模型的训练方法、装置、设备及可读存储介质
CN114511737B (zh) 图像识别域泛化模型的训练方法
CN111242268A (zh) 一种搜索卷积神经网络的方法
CN110991621A (zh) 一种基于通道数搜索卷积神经网络的方法
CN113377964A (zh) 知识图谱链接预测方法、装置、设备及存储介质
CN110222816B (zh) 深度学习模型的建立方法、图像处理方法及装置
Lim et al. Inverse multi-objective robust evolutionary design optimization in the presence of uncertainty
JP2023051724A (ja) カスタマイズされたディープラーニングベースのテキスト修正のための方法及び装置
CN111325284A (zh) 一种基于多目标动态分布自适应学习方法及装置
CN112465929B (zh) 一种基于改进图卷积网络的图像生成方法
CN113516019A (zh) 高光谱图像解混方法、装置及电子设备
CN113887636B (zh) 基于遗传算法的可选择数据增强方法及系统
CN112529057A (zh) 一种基于图卷积网络的图相似性计算方法及装置
CN112989804B (zh) 一种基于堆叠多头特征抽取器的实体消歧方法
CN115457269A (zh) 一种基于改进DenseNAS的语义分割方法
CN111695526B (zh) 网络模型生成方法、行人重识别方法及装置
CN114219043A (zh) 基于对抗样本的多教师知识蒸馏方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant