CN109388565A - 基于生成式对抗网络的软件系统性能优化方法 - Google Patents

基于生成式对抗网络的软件系统性能优化方法 Download PDF

Info

Publication number
CN109388565A
CN109388565A CN201811128361.9A CN201811128361A CN109388565A CN 109388565 A CN109388565 A CN 109388565A CN 201811128361 A CN201811128361 A CN 201811128361A CN 109388565 A CN109388565 A CN 109388565A
Authority
CN
China
Prior art keywords
sample
network
optimization
performance
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811128361.9A
Other languages
English (en)
Other versions
CN109388565B (zh
Inventor
鲍亮
王方正
方宝印
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201811128361.9A priority Critical patent/CN109388565B/zh
Publication of CN109388565A publication Critical patent/CN109388565A/zh
Application granted granted Critical
Publication of CN109388565B publication Critical patent/CN109388565B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3604Software analysis for verifying properties of programs
    • G06F11/3608Software analysis for verifying properties of programs using formal methods, e.g. model checking, abstract interpretation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/362Software debugging
    • G06F11/3628Software debugging of optimised code

Abstract

本发明公开的一种基于生成式对抗网络的软件系统性能建模与优化方法,主要解决现有技术时间成本高,训练难度过大,训练网络容易崩溃且优化空间有限的问题。其实现方案:1)获取软件系统的特征样本集合;2)固定硬件环境,配置软件系统,根据其特征样本集合进行性能测试,获取吞吐量或者时间延迟,并对其进行预处理,再依次进行独热编码和归一化,得到结构化数据;3)在每次迭代开始时,均从上一步的结构化数据中随机选取一半作为训练样本,对生成式对抗网络进行迭代训练,得到优化样本;4)对比训练样本和优化样本的性能,验证优化效果。本发明降低了时间成本,提高了网络健壮性和稳定性,优化效果明显,可用于互联网、大数据的处理。

Description

基于生成式对抗网络的软件系统性能优化方法
技术领域
本发明属于计算机技术领域,特别涉及一种对软件系统的性能优化方法,可用于互联网、大数据的处理。
背景技术
当下,在互联网、大数据高速发展的时代,随着数据量的日益增大,如何在硬件系统一定的条件下,优化软件系统的性能,已经被广泛讨论。目前流行的一些分布式软件系统包括Spark、Hive、HBase和Kafka等。因而,对各种软件系统如何进行精细化性能建模与优化仍然是工业界和学术界的热点问题。
深圳先进技术研究院所在其申请的专利文献“一种数据感知的Spark配置参数自动优化方法”(申请号:201611182310.5申请日期:2016.12.20公开号:CN106648654A)中公开了一种数据感知的Spark配置参数自动优化方法。该方法通过选定Spark应用程序,进一步确定上述应用程序中影响Spark性能的参数,确定上述参数的取值范围;在取值范围内随机生成参数,并生成配置文件配置Spark,配置后运行应用程序并收集数据;将收集的Spark运行时间、输入数据集、配置参数值数据构成横向量,多个向量构成训练集,通过随机森林算法对上述训练集进行建模;使用构建好的性能模型,通过遗传算法搜索最优配置参数。该方法存在的不足之处是,需要在实际环境上评价每个配置对分布式内存计算框架Spark集群性能影响力,作为随机森林模型的训练集,浪费大量时间成本。
北京航空航天大学在其申请的专利文献“一种基于复杂网络理论评估软件系统可靠性的方法”(申请号:201810088519.8申请日期:2018.1.30公开号:108255733A)中公开了一种基于复杂网络理论评估软件系统可靠性的方法。该方法通过确定软件的抽象层次,确定复杂网络模型中的节点,然后对软件的源代码进行解析,提取相应的节点以及节点之间关系,构建复杂网络模型,再对软件的复杂网络模型进行静态分析和动态模拟分析,计算模型的宏观与微观的静态参数以及动态性能参数,最后根据静态计算以及动态分析的结果对软件的可靠性进行评估,即可以完成对基于复杂网络理论评估面向过程编程的软件系统可靠性的方法的构建。该方法存在的不足之处是随着复杂网络拟合效果的提升,其网络复杂度也在提升,训练难度提升,导致网络容易出现崩溃等问题。
因此,对于软件系统的性能优化,尚且存在一些问题,包括思路固化老化,无法避开用各种方法求解各个特征对最终性能权重的传统方法,创新层面上进步不大。同时,由于方法在根本思路上的一致性,导致在性能的改进上无法取得较大的进展,遭遇瓶颈。在使用传统机器学习方法时,由于需要样本量过多导致算法的时间成本过大。或者在使用一些新式的机器学习算法时,比如复杂网络,虽然能取得较好的结果,但却难于训练,易于崩溃,不适用于一些实际场景。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于生成式对抗网络的软件系统优化方法,以在保证训练拟合度较好的前提下,降低网络的复杂度,扩展适用场景,大幅度降低训练难度,节约时间成本。
为实现上述目的,本发明的技术方案包括如下:
(1)获取样本特征集合:
(1a)根据软件系统的官方配置文档,得到所有可配置参数,筛选并删除对软件性能无影响的参数;
(1b)将筛选留下的参数按照官方给出的重要性程度进行排序,再次删除对性能影响程度特别小,且对性能预测没有意义且完全可忽略的参数,得到样本特征集合;
(2)在服务器内安装软件系统,根据步骤(1)获取的样本特征集合,搭建软件系统的实际运行环境,随机取不同的参数值,得到多组样本特征,通过对样本特征测试,获取每一组样本对应的软件系统吞吐量或者时延数据,得到实验样本集合;
(3)遍历步骤(2)得到的实验样本集中的所有参数,对其中属于枚举变量的参数进行独热编码,并将所有的变量进行归一化,产生能够进行模型训练的结构化数据集合;
(4)选择训练样本:
4.1.对得到的多组结构化数据按照吞吐量或者时延值进行排序,根据实际需求,选取若干数量的最好样本特征进行迭代训练;
4.2.每次迭代过程中,再从上一步选择的样本中随机且不重复选择一半数量的样本特征,作为训练样本,并打乱顺序输入到生成式对抗网络中,以保证训练样本的多样性和可靠性。
(5)训练生成式对抗网络:
5a)在第一次迭代训练开始时,输入选择好的训练样本x,使用生成式对抗网络中的生成网络模型G,产生与训练样本维度一致的生成样本z;
5b)将训练样本x和生成样本z一起输入对抗网中的判别模型D中,得到判别模型D对训练样本x真实性的判别概率Ex和生成样本z真实性的判别概率Ez
5c)根据5b)的两个判别概率通过下式对生成模型G和判别模型D进行修正:
其中,V表示系统性能;
5d)开始第二次迭代,重复5a-5c,不断优化生成模型G和判别模型D,直至达到预先设定好的迭代次数,得到最终的优化样本;
(6)生成式对抗网络效果验证:
将通过生成式对抗网络模型得到的优化样本在软件系统上进行测试,得到优化样本的吞吐量或者时延值;
将优化样本与原始训练样本的吞吐量或者时延值进行对比,得到生成式对抗网络模型对软件系统的性能优化效果。
本发明具有如下的优点:
1)本发明通过使用一种基于两个网络对抗训练的方式进行优化,打破了原有软件系统性能优化方法的固有思路,使用一个网络进行模拟生成特征配置,另一个网络判断性能好坏,并交替迭代进行这两个过程的方法来进行优化,结果良好,同时由于两个网络均使用三层全连接网络,易于训练。
2)本发明通过设计一种基于深度学习的网络,并通过独热编码的方式将所有特征数字化,可以输入网络进行训练学习,且考虑到所有特征之间相互影响的关系,得到考虑较为全面的结果。
3)本发明通过实验样本每次随机选择一半样本特征的方法,保证了训练样本的多样性和随机性,也可以保证样本的质量。同时,由于避免通过大量实验获取大量样本的过程,最大限度地节约了时间成本。
附图说明
图1是本发明的实现流程图;
图2是本发明中生成式对抗网络内部逻辑的子流程图;
图3是本发明中的生成式对抗网络结构图;
图4是在使用Spark软件情况下对本发明的优化样本与原始训练样本的性能对比图。
图5是在使用Kafka软件情况下对本发明的优化样本与原始训练样本的性能对比图。
具体实施方式
下面结合附图对本发明做详细描述。
现有技术中存在着对于软件系统不同数量的特征参数,进行不同思路的优化,最终通过求解不同特征权重以及不同特征之间相互影响关系,得到系统性能关于特征的一些函数关系,并能够进行一定程度上的优化。但是其思路终究离不开特征关于性能的权重关系,最终还是通过探究性能与特征之间关系的方法进行优化。并且经过多年的探索,这种思路虽然取得较好结果,但正是由于根本思路的一致性,却也遇到一些瓶颈,比如未来的探索创新空间有限,优化程度过低,成本偏高。本发明正是为要解决现有技术的这些问题而提出一种分布式基于生成式对抗网络的软件系统性能优化方法。以下所给出的实施例,仅用于说明本发明,但不构成对本发明的任何限制。
参见图1,本发明给出如下三个实施例:
实施例1:基于Spark软件系统的性能优化
步骤1,获取样本特征集合。
(1a)根据Spark软件系统的官方配置文档,得到所有可以进行配置的参数,从分布式内存计算框架Spark集群的所有待修改的配置参数中,选择优化标准中推荐修改的配置参数,组成待优化的配置参数集合;
根据参数说明标准,设置分布式内存计算框架Spark集群中待优化的配置参数集合中每个参数的取值类型和范围,从每个参数的取值范围中提取默认取值,将所有默认取值组成默认配置;
(1b)筛选并删除对性能完全没有意义的特征:
查看所有特征的详细信息,剔除对性能完全没有影响的特征,例如数据的存储位置,监听的端口号等。
(1c)将经筛选留下的特征按照官方给出的重要性程度排序,再次删除对性能影响程度特别小,对性能是否良好没有意义,完全可以忽略的特征,得到样本特征。
针对Spark系统,将每个特征按照重要性程度排序,将对性能影响程度特别小,对性能好坏没有意义,完全可以忽略的特征进行删除。重要性程度指的是某参数对软件性能的影响程度。
最后得到对于Spark系统性能影响较大的特征集合如表1:
表1 Spark特征列表
表1中的信息包含名称、类型和采样值。其中所展示参数名称仅是从所有Spark参数中选出为测试实验所需要的几种参数,并构成Spark特征集合。
步骤2,软件系统性能测试。
(2a)在服务器安装配置软件系统,根据表1中的13种参数集合,确定软件系统的实际运行环境,搭建由多台装有分布式内存计算框架Spark的硬件配置相同的计算机组成的集群,根据步骤1特征集合中采样值,配置实际运行系统,确定平台的处理逻辑;
本步骤选择阿里云上4台硬件配置完全一样且都装有分布式内存计算框架的计算机,搭建分布式大数据Spark集群,配置实验中每台计算机的规格参数,结果如表2所示。
表2计算机参数规格一览表
操作系统 CentOS 6.5
处理器核数 4
内存 20GB
硬盘 200GB
(2b)搭建集群完成后,进行时间延迟性能测试,获取每一组样本对应的性能数据,具体实现如下:
以三次不同的用户输入,使用基于该集群的分布式内存计算框架Spark配置参数自动调优方法进行实际系统实验,验证在优化后的特征配置下分布式内存计算框架Spark集群性能的表现优于输入的样本特征,每次仿真实验场景的序号、用户指定的待处理数据、分析方法、搜索时间、初始搜索中待搜索的配置参数集合的总数k和每次迭代搜索过程中搜索的配置总数m,结果如表3所示。
表3工作负载参数一览表
序号 待处理数据 分析方法 搜索时间 k m
1 506.9M PageRank(网页检索) 485分钟 317 20
2 7.5G Sort(机器学习) 360分钟 163 20
3 76.5G WordCount(统计分析) 320分钟 211 20
(2c)按照表3配置进行测试,分别得到特征集合中每一组配置参数在三种场景下的时延。
步骤3,实验结果预处理。
(3a)对属于枚举变量的特征进行独热编码处理:
遍历特征集合,先判断是否是枚举变量,如果不是枚举变量则直接输入生成式对抗网络;如果是枚举变量,则需要对属于枚举变量的特征进行独热编码处理,即采用N位状态寄存器对N个状态进行编码,每个状态都有其它独立的寄存器位,并且在任意时候只有一位有效,用这种一位有效的编码是分类变量作为二进制向量的表示;通过独热编码,可将枚举特征的取值扩展到欧式空间,枚举特征的某个取值就对应欧式空间的某个点,同时可以将枚举特征离散化成多个特征的组合,以被生成式对抗网络直接处理,使得特征之间的欧式距离计算更加合理;
(3b)将所有的变量进行归一化处理:
对特征取值进行标准化处理,使每一个特征的取值满足(0,1)的正态分布,产生能够进行模型训练的结构化数据,使得生成式对抗网络更加稳定,特征之间的欧式距离计算更加合理。之所以这么做,是因为在大多数机器学习或者深度学习算法中,特征之间距离的计算或相似度的计算是非常重要的,而本实例对于距离或者相似度的计算都是在欧式空间进行相似度计算,而生成式对抗网络作为一种深度学习算法,需要进行归一化的预处理提升算法稳定性和鲁棒性。
步骤4,选择训练样本。
(4a)考虑到在性能较好的配置特征周围也会有使得性能较好的配置,应该选取性能最好的样本训练,本实例对得到的多组结构化数据按照时延值进行从小到大排序,根据实际需求,选取若干数量的最好样本特征作为初始训练样本进行迭代训练;
(4b)每次迭代过程中,随机选取上一步选择的初始训练样本中的一半样本,并随机排列,作为这一次迭代过程的训练样本x,输入到生成式对抗网络中,以保证训练样本的多样性和可靠性。之所以选择一半,是因为如果选择太少,样本潜在特性不易学习;如果选择太多,又无法保证样本多样性。
步骤5,对生成式对抗网络进行训练,获得配置参数。
系统软件的性能优化问题属于多元数据处理,因此对性能进行优化时要考虑到各个特征之间的相互影响。本实例通过设计一种基于深度学习的生成式对抗网络GAN模型,将Spark的性能与特征之间建立联系,使得本方法能够基于选取好的训练样本,利用生成模型G学习出Spark性能良好的配置的潜在特性,并使用另一个判别网络D进行判断,计算误差,不断优化结果。该模型不再使用以往进行性能优化必然寻找不同特征间权重大小关系的思路,而利用网络的拟合性探寻性能和特征的关系,不断优化,并直接得到优化的配置参数。结果表明,模型可以通过探索不同特征在其配置空间内部的关系得到使得性能较好的特征配置。
参照图2,本步骤的具体实现如下:
(5a)把步骤(4a)得到的初始训练样本输入到生成式对抗网络;
如附图3所示,所述生成式对抗网络,包括:判别网络模型D和生成网络模型G,这两个网络均使用经典的三层全连接网络结构,其中:
所述的生成网络模型G,如图3(b)所示,其是一个包含输入层、隐含层和输出层的三层全连接网络,该输入层包含5个结点,每个节点为[-1,1]范围内的随机数;该隐含层有128个节点,且每个节点与输入层之间有权重关系,初始化权重为[-1,1]范围内的随机数;该输出层含有n个结点,且每个节点含有激活函数relu,其中n的取值为具体软件的参数个数,在本实例中,Spark的软件参数n为13;
所述的判别网络模型D,如图3(a)所示,其是一个包含输入层、隐含层和输出层的三层全连接网络,该输入层包含n个结点,即13节点;该隐含层有128个节点,且每个节点与输入层之间有权重关系,初始化权重也是[-1,1]范围内的随机数,且每个节点含有激活函数sigmoid;该输出层含有1个结点,表示输入样本真实性的概率,且每个节点含有激活函数relu;
(5b)使用生成网络G,产生与训练样本x维度一致的生成样本z,
根据生成网络G的输入层始终为[-1,1]范围内的随机数,通过与隐含层节点之间的权重关系计算得到该网络的隐含层节点值,将该隐含层节点值再传递到输出层,输出层的节点值通过relu函数计算,得到最终与训练样本x形式一致的生成样本z;
(5c)将生成样本z和步骤(4b)选择出的训练样本x分别输入判别网络D,经过与隐含层的权重关系计算得到该网络的隐含层节点值,隐含层节点值经过sigmoid函数计算,传递到输出层,输出层节点值最后经过relu函数计算,得到判别网络D关于两组样本真实性的判别概率;
(5d)根据目标公式对生成式对抗网络进行优化:
所述目标公式表示如下:
其中,V表示系统性能,G表示生成网络,D表示判别网络,x~pr(x)表示关于样本特征x的分布,r表示样本的参数数量,z~pn(z)表示关于样本特征z的分布,n表示样本的参数数量,E表示求其均值;
(5d1)对判别网络D进行优化:
由上述目标公式可看出,在对判别网络D进行优化时,需要最大化两个概率的均值之和,故按照深度学习的思维,得到判别网络的损失函数:
将步骤(5c)求得的两个概率代入判别网络的损失函数D_loss,通过不断最小化该损失函数,优化判别网络D不同层节点间的权重;
(5d2)对生成网络G进行优化:
由上述目标公式可看出,在对生成网络G进行优化时,需要最小化生成样本的概率均值,故按照深度学习的思维,得到生成网络的损失函数:
将步骤(5c)求得的两个概率代入生成网络的损失函数G_loss,通过不断最小化该损失函数,优化生成网络G不同层节点间的权重;
通过这两个过程,生成网络产生真实样本的能力会提升,判别网络判断样本真实性的能力也会提升;
(5e)优化后的生成网络产生新的生成样本z;
(5f)重复(5c)到(5e),直至达到满足设置好的迭代次数,根据实际需求,保存最后若干次生成网络最终产生的生成样本z',作为最终优化结果,其中,z'为一个m*n的矩阵,m表示优化样本的数量,n表示样本特征的参数个数。
所述迭代次数为经验值,本实例取值300000次。
步骤6,优化效果验证。
根据生成式对抗网络生成的样本z',在Spark系统上进行测试,得到优化样本z'的时延值,将生成式对抗网络的性能与原始训练样本的时延值进行对比,即是当软件以吞吐量作为性能标准,则取训练样本和优化样本吞吐量越大的为性能越好;若以时间延迟为性能标准,则取训练样本和优化样本时延越小的为性能越好。本实例的Spark以时间延迟为性能标准,故取训练样本和优化样本时延越小的为性能越好。
本实施例的效果可通过以下仿真进一步说明:
根据步骤1所选取的13种参数集合,在步骤2所确定的硬件环境和场景中进行Spark测试实验,获得Spark的训练样本集合x的时间延迟值,再根据步骤3-5的生成式对抗网络算法过程,对特征参数进行优化,获得优化样本z',再对优化样本z'进行测试,得到其对应时间延迟,将训练样本x和优化样本z'的时间延迟值做对比,结果如图4所示。
图4中的横坐标代表在三种不同的场景下,训练样本取最好的32组结果的平均值,优化样本结果也取32组平均值,训练样本和生成式对抗网络优化后的样本的性能对比,纵坐标表示分布式内存计算框架Spark集群分析待处理数据的平均时间,单位为毫秒。图中前者浅色柱体代表训练样本,后者深色柱形代表优化样本。
从图4可以看出,相同场景下的深色柱形都低于浅色柱形,在三种不同场景下利用优化样本的分布式内存计算框架Spark集群分析待处理数据,其时间都小于训练样本配置,表明利用生成式对抗网络算法,可以对软件系统进行特征配置优化,减少了Spark集群分析处理数据的时间,验证了基于生成式对抗网络的软件系统性能优化方法的有效性与合理性。
实施例2,基于Kafka软件系统的性能优化
步骤一,获取样本特征集合:
(1.1)根据Kafka的官方配置文档,得到所有能进行配置的参数,筛选并删除对软件性能完全没有意义的参数;
(1.2)将筛选留下的参数按照官方给出的重要性程度进行排序,再次删除对性能影响程度特别小,且对性能预测没有意义且完全可忽略的参数,得到Kafka部分消息特征集合,如表4所示。
表4Kafka部分特征列表
特征列表中的信息包含名称、描述、类型、默认值、有效值和重要程度。
步骤二,软件系统性能测试:
(2.1)在服务器安装配置Kafka软件系统,选择一台性能较优的服务器,然后在服务器上创建4台性能完全一样的虚拟机,其中两台虚拟机用来搭建Kafka broker集群,另外两台用来搭建Zookeeper集群,通过四台服务器搭建实时数据处理平台。实验中服务器以及虚拟机的规格参数如表5,表6所示。
表5服务器参数规格
表6虚拟机参数规格
虚拟机数量 4
操作系统 CentOS 6.5
处理器核数 4
内存 8GB
硬盘 50GB
(2.2)确定硬件配置后,根据步骤一得到的参数集合,确定软件系统的实际运行环境,结合本发明的生成式对抗网络方法,确定生产者和消费者,改变每次发送消息长度或者生产者数量,构成四种场景如表7,对Kafka这一消息中间件的吞吐量性能进行测试。
表7Kafka实验场景
序号 发送消息长度(字节) 生产者数量(个) 表示方法
1 100 1 L100 P1
2 100 3 L100 P3
3 1000 1 L1000 P1
4 10000 1 L10000 P1
(2.3)按照表7场景进行Kafka测试,生产者发送消息,消费者接收消息,最后得到特征集合中每一组配置参数在四种场景下的吞吐量。
步骤三,对步骤2的测试结果进行预处理。
本步骤的具体实施与实施例1的步骤3相同。
步骤四,选择训练样本。
本步骤的具体实施与实施例1的步骤4相同.
步骤五,对生成式对抗网络进行训练。
本步骤的具体实施与实施例1的步骤5相同.
步骤六,优化效果验证。
根据生成式对抗网络生成的样本z',在Kafka系统上进行测试,得到优化样本z'的吞吐量,将生成式对抗网络的性能与原始训练样本的吞吐量进行对比,本实例的Kafka软件以吞吐量为性能标准,故取训练样本和优化样本吞吐量越大的为性能越好。
本实施例的效果可通过以下仿真进一步说明:
根据步骤一所选取的特征集合,在步骤二所确定的硬件环境和场景中进行Kafka测试实验,获得Kafka的训练样本集合x的时间吞吐量,再根据步骤三到步骤五的生成式对抗网络算法过程,对特征参数进行优化,获得优化样本z',再对优化样本z'进行测试,得到其对应吞吐量,将训练样本x和优化样本z'的时间吞吐量做对比,结果如图5所示。
图5中的横坐标代表在四种不同的场景下,训练样本取最好的32组结果的平均值,优化样本结果也取32组平均值,训练样本和生成式对抗网络优化后的样本的性能对比,纵坐标表示分布式消息中间件Kafka集群发送消息的平均速率,即吞吐量,单位为MB/s。图中前者浅色柱体代表训练样本,后者深色柱形代表优化样本。
从图5可以看出,相同场景下的深色柱形都低于浅色柱形,在四种不同场景下得到优化配置的分布式消息中间件Kafka集群发送数据,其吞吐量都明显大于训练样本配置,表明利用生成式对抗网络算法,可以对软件系统进行特征配置优化,增大了Kafka集群单位时间内发送消息的数据量,再次验证了基于生成式对抗网络的软件系统性能优化方法的有效性与合理性,也说明该方法具有一定的广泛性和适用性。
以上描述仅是本发明的两个具体实例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解本发明的内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,例如本发明方法可用于Redis、HBase、Hive和Mysql等软件系统,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (8)

1.基于生成式对抗网络的软件系统性能优化方法,其特征在于,包括如下:
(1)获取样本特征集合:
(1a)根据软件系统的官方配置文档,得到所有可配置参数,筛选并删除对软件性能无影响的参数;
(1b)将筛选留下的参数按照官方给出的重要性程度进行排序,再次删除对性能影响程度特别小,且对性能预测没有意义且完全可忽略的参数,得到样本特征集合;
(2)在服务器内安装软件系统,根据步骤(1)获取的样本特征集合,搭建软件系统的实际运行环境,随机取不同的参数值,得到多组样本特征,通过对样本特征测试,获取每一组样本对应的软件系统吞吐量或者时延数据,得到实验样本集合;
(3)遍历步骤(2)得到的实验样本集中的所有参数,对其中属于枚举变量的参数进行独热编码,并将所有的变量进行归一化,产生能够进行模型训练的结构化数据集合;
(4)选择训练样本:
4.1)对得到的多组结构化数据按照吞吐量或者时延值进行排序,根据实际需求,选取若干数量的最好样本特征进行迭代训练;
4.2)每次迭代过程中,再从上一步选择的样本中随机且不重复选择一半数量的样本特征,作为训练样本,并打乱顺序输入到生成式对抗网络中,以保证训练样本的多样性和可靠性。
(5)训练优化模型:
5a)在第一次迭代训练开始时,输入选择好的训练样本x,使用生成式对抗网络中的生成网络模型G,产生与训练样本维度一致的生成样本z;
5b)将训练样本x和生成样本z一起输入对抗网中的判别模型D中,得到判别模型D对训练样本x与生成样本z真实性的判别概率;
5c)根据5b)的两个判别概率通过下式对生成模型G和判别模型D进行修正:
其中,V表示系统性能,x~pr(x)表示关于样本特征x的分布,r表示样本的参数数量,z~pn(z)表示关于样本特征z的分布,n表示样本的参数数量;
5d)开始第二次迭代,重复5a-5c,不断优化生成模型G和判别模型D,直至达到预先设定好的迭代次数,得到最终的优化样本;
(6)优化效果验证:
将通过生成式对抗网络模型得到的优化样本在软件系统上进行测试,得到优化样本的吞吐量或者时延值;
将优化样本与原始训练样本的吞吐量或者时延值进行对比,得到生成式对抗网络模型对软件系统的性能优化效果。
2.根据权利要求1所述的方法,其特征在于,步骤(2)中搭建软件系统的实际运行环境,是在服务器上创建四台性能完全一样的虚拟机,其中两台虚拟机用来安装软件系统集群,另外两台用来安装集群管理软件系统,通过上述四台服务器搭建实时数据处理软件系统。
3.根据权利要求1所述的方法,其特征在于,步骤(2)中对样本特征测试,是先确定软件系统的消息生产者和消费者,再模拟软件系统上消息的发布和订阅的过程,测量实时环境下消息发布吞吐量或者延迟时间,作为软件系统的性能数据。
4.根据权利要求1所述方法,其特征在于,(3)中对枚举变量的参数进行独热编码,是先将枚举变量不同分类值映射到整数值,再将每个整数值都表示为二进制向量,除了整数的索引被标记为1,其它都是零值。
5.根据权利要求1所述方法,其特征在于,5a)中使用生成式对抗网络中的生成网络模型G,产生与训练样本维度一致的生成样本z,是利用生成网络G内部结构的各个组件的数学关系计算得到;
所述生成式对抗网络中的生成网络模型G,其是一个包含输入层、隐含层和输出层的三层全连接网络,该输入层包含5个结点,每个节点为[-1,1]范围内的随机数;该隐含层有128个节点,且每个节点与输入层之间有权重关系,初始化权重为[-1,1]范围内的随机数;该输出层含有n个结点,且每个节点含有激活函数relu,其中n的取值为具体软件的参数个数;
对生成网络G的输入层随机出的数值经过与隐含层的权重关系计算得到隐含层节点值,再到输出层经过relu函数,得到最终与训练样本x形式一致的生成样本z。
6.根据权利要求1所述方法,其特征在于,5b)中所述使用生成式对抗网络中的判别网络模型D,得到样本真实性的判别概率,是利用判别网络D内部结构的各个组件的数学关系计算得到,即将样本输入判别网络D的输入层,经过与隐含层的权重关系计算得到隐含层节点值,经过sigmoid函数到输出层,最后经过relu函数,得到判别概率;
所述生成式对抗网络中的判别网络模型D,其是一个包含输入层、隐含层和输出层的三层全连接网络,该输入层包含n个结点,其中n的取值为具体软件的参数个数;该隐含层有128个节点,且每个节点与输入层之间有权重关系,初始化权重也是[-1,1]范围内的随机数,且每个节点含有激活函数sigmoid;该输出层含有1个结点,表示输入样本真实性的概率,且每个节点含有激活函数relu。
7.根据权利要求1所述方法,其特征在于,5d)中得到的优化样本z,其为一个m*n的矩阵,其中,m表示优化样本的数量,n表示样本特征的参数个数。
8.根据权利要求1所述方法,其特征在于,(6)中得到生成式对抗网络模型对软件系统的性能优化效果,是当软件以吞吐量作为性能标准,则取训练样本和优化样本吞吐量越大的为性能越好;若以时间延迟为性能标准,则取训练样本和优化样本时延越小的为性能越好。
CN201811128361.9A 2018-09-27 2018-09-27 基于生成式对抗网络的软件系统性能优化方法 Active CN109388565B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811128361.9A CN109388565B (zh) 2018-09-27 2018-09-27 基于生成式对抗网络的软件系统性能优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811128361.9A CN109388565B (zh) 2018-09-27 2018-09-27 基于生成式对抗网络的软件系统性能优化方法

Publications (2)

Publication Number Publication Date
CN109388565A true CN109388565A (zh) 2019-02-26
CN109388565B CN109388565B (zh) 2021-08-06

Family

ID=65418162

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811128361.9A Active CN109388565B (zh) 2018-09-27 2018-09-27 基于生成式对抗网络的软件系统性能优化方法

Country Status (1)

Country Link
CN (1) CN109388565B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070117A (zh) * 2019-04-08 2019-07-30 腾讯科技(深圳)有限公司 一种数据处理方法及装置
CN110673860A (zh) * 2019-09-24 2020-01-10 江苏医健大数据保护与开发有限公司 智能云数据中心建设与运营部署系统及方法
CN110825629A (zh) * 2019-10-31 2020-02-21 深圳市商汤科技有限公司 参数调优方法及相关装置
CN111488271A (zh) * 2020-03-10 2020-08-04 中移(杭州)信息技术有限公司 消息中间件的调优方法、系统、电子设备及存储介质
CN111666071A (zh) * 2020-04-17 2020-09-15 中国海洋大学 一种基于目标众核的对抗网络移植与优化的方法及系统
CN113239469A (zh) * 2021-06-15 2021-08-10 南方科技大学 一种车体零部件的结构优化方法、装置、设备及存储介质
CN113743110A (zh) * 2021-11-08 2021-12-03 京华信息科技股份有限公司 一种基于微调生成式对抗网络模型的漏词检测方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN107016406A (zh) * 2017-02-24 2017-08-04 中国科学院合肥物质科学研究院 基于生成式对抗网络的病虫害图像生成方法
AU2017101166A4 (en) * 2017-08-25 2017-11-02 Lai, Haodong MR A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks
CN107360026A (zh) * 2017-07-07 2017-11-17 西安电子科技大学 分布式消息中间件性能预测与建模方法
CN108171266A (zh) * 2017-12-25 2018-06-15 中国矿业大学 一种多目标深度卷积生成式对抗网络模型的学习方法
CN108491226A (zh) * 2018-02-05 2018-09-04 西安电子科技大学 基于集群缩放的Spark配置参数自动调优方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN107016406A (zh) * 2017-02-24 2017-08-04 中国科学院合肥物质科学研究院 基于生成式对抗网络的病虫害图像生成方法
CN107360026A (zh) * 2017-07-07 2017-11-17 西安电子科技大学 分布式消息中间件性能预测与建模方法
AU2017101166A4 (en) * 2017-08-25 2017-11-02 Lai, Haodong MR A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks
CN108171266A (zh) * 2017-12-25 2018-06-15 中国矿业大学 一种多目标深度卷积生成式对抗网络模型的学习方法
CN108491226A (zh) * 2018-02-05 2018-09-04 西安电子科技大学 基于集群缩放的Spark配置参数自动调优方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MASICMCSU: "GAN⽣成式对抗⽹络总结", 《HTTPS://BLOG.CSDN.NET/U010834458/ARTICLE/DETAILS/71286376》 *
STEVEN A. ISRAEL等: "Generative Adversarial Networks for Classification", 《INSTITUTE OF ELECTRICAL AND ELECTRONIC ENGINEERS》 *
王志泳: "分布式消息系统Kafka的性能建模与优化技术研究与实现", 《电子技术与信息科学》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070117A (zh) * 2019-04-08 2019-07-30 腾讯科技(深圳)有限公司 一种数据处理方法及装置
WO2020207214A1 (zh) * 2019-04-08 2020-10-15 腾讯科技(深圳)有限公司 一种数据处理方法、装置、电子设备及存储介质
CN110070117B (zh) * 2019-04-08 2023-04-07 腾讯科技(深圳)有限公司 一种数据处理方法及装置
CN110673860A (zh) * 2019-09-24 2020-01-10 江苏医健大数据保护与开发有限公司 智能云数据中心建设与运营部署系统及方法
CN110673860B (zh) * 2019-09-24 2023-06-16 南京先进计算产业发展有限公司 智能云数据中心建设与运营部署系统及方法
CN110825629A (zh) * 2019-10-31 2020-02-21 深圳市商汤科技有限公司 参数调优方法及相关装置
CN111488271A (zh) * 2020-03-10 2020-08-04 中移(杭州)信息技术有限公司 消息中间件的调优方法、系统、电子设备及存储介质
CN111488271B (zh) * 2020-03-10 2023-10-27 中移(杭州)信息技术有限公司 消息中间件的调优方法、系统、电子设备及存储介质
CN111666071A (zh) * 2020-04-17 2020-09-15 中国海洋大学 一种基于目标众核的对抗网络移植与优化的方法及系统
CN113239469A (zh) * 2021-06-15 2021-08-10 南方科技大学 一种车体零部件的结构优化方法、装置、设备及存储介质
CN113743110A (zh) * 2021-11-08 2021-12-03 京华信息科技股份有限公司 一种基于微调生成式对抗网络模型的漏词检测方法及系统

Also Published As

Publication number Publication date
CN109388565B (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
CN109388565A (zh) 基于生成式对抗网络的软件系统性能优化方法
CN111339433B (zh) 基于人工智能的信息推荐方法、装置、电子设备
CN105589806B (zh) 一种基于SMOTE+Boosting算法的软件缺陷倾向预测方法
Kardan et al. A Framework for Capturing Distinguishing User Interaction Behaviors in Novel Interfaces.
CN106202514A (zh) 基于Agent的突发事件跨媒体信息的检索方法及系统
CN110990631A (zh) 视频筛选方法、装置、电子设备和存储介质
CN105740227B (zh) 一种求解中文分词中新词的遗传模拟退火方法
EP2988230A1 (en) Data processing method and computer system
CN110222171A (zh) 一种分类模型应用、分类模型训练方法及装置
CN111210072B (zh) 预测模型训练和用户资源额度确定方法及装置
CN112199608A (zh) 基于网络信息传播图建模的社交媒体谣言检测方法
CN110362663A (zh) 自适应多感知相似度检测和解析
CN111581092A (zh) 仿真测试数据的生成方法、计算机设备及存储介质
CN111539612B (zh) 一种风险分类模型的训练方法和系统
Graham et al. Finding and visualizing graph clusters using pagerank optimization
CN116910283A (zh) 一种针对网络行为数据的图存储方法及系统
Maekawa et al. Beyond real-world benchmark datasets: An empirical study of node classification with GNNs
CN115145817A (zh) 一种软件测试方法、装置、设备及可读存储介质
CN107729349A (zh) 一种基于元数据的特征数据集自动生成方法及装置
CN110443369A (zh) 基于机器学习的定理证明方法、装置、电子设备及存储介质
CN113259495B (zh) 一种基于区块链的新闻定点投放方法、系统和可读存储介质
CN106156182A (zh) 将微博话题词分类到具体领域的方法和设备
US20220222469A1 (en) Systems, devices and methods for distributed hierarchical video analysis
CN115454473A (zh) 基于深度学习漏洞决策的数据处理方法及信息安全系统
CN107168944A (zh) 一种lda并行优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant