CN114124973B - 一种面向多云场景的镜像同步方法和装置 - Google Patents
一种面向多云场景的镜像同步方法和装置 Download PDFInfo
- Publication number
- CN114124973B CN114124973B CN202111137368.9A CN202111137368A CN114124973B CN 114124973 B CN114124973 B CN 114124973B CN 202111137368 A CN202111137368 A CN 202111137368A CN 114124973 B CN114124973 B CN 114124973B
- Authority
- CN
- China
- Prior art keywords
- weight
- path
- cloud
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1095—Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及云管理平台技术领域,提供了一种面向多云场景的镜像同步方法和装置。其中方法包括根据采集的数据对模型进行卷积神经网络的AI训练模型反复训练,从而修正权值和偏置值,得到适合选择最优路径的权值和偏置值;将所述权值和偏置值导入云管平台中,作为云管平台中卷积神经网络的AI执行模型的配置参数,以便生成最优的同步路径。本发明利用AI技术构建同步模型,支持根据传输效率动态选择最优路径,将公共存储集群的镜像同步到业务存储集群中,提升镜像同步效率,同时支持对缓存池进行自动化容量管理。
Description
【技术领域】
本发明涉及云管理平台技术领域,特别是涉及一种面向多云场景的镜像同步方法和装置。
【背景技术】
近年来,大型数据中心、边缘云(云边协同)的实际使用场景越来越多,随着规模的扩大,单一的存储集群已经无法满足实际需要,特别是存储性能以及IO时延等存在较大挑战,同时对于后期运维(故障域设置)也会带来很大压力,因此实际现网部署时,会存在多个存储集群,一定数量的计算节点和一套业务存储集群进行绑定,同时存在一个单独的公共存储集群,用来存放一些公共资源,比如镜像、公共资源备份等。在发放虚拟机时,对应的业务存储集群需要去公共存储集群下载镜像,耗时且效率低。
如图1所述,当前业界大部分采用缓存技术来解决上述问题,通过在业务存储集群设置缓存池,将公共存储集群的镜像同步到业务存储集群缓存池中,结合存储自身的能力,达到提升虚拟机发放效率的目的。但是在缓存时,通过从公共存储集群逐个同步到业务存储集群,效率低,镜像无法最快的达到就绪状态;并且每次触发同步时,由于公共存储集群和业务存储集群实时负载不同进而影响传输效率,导致客户感知存在较大差别。
鉴于此,克服该现有技术所存在的缺陷是本技术领域亟待解决的问题。
【发明内容】
本发明要解决的技术问题是实际现网部署时,会存在多个存储集群,一定数量的计算节点和一套业务存储集群进行绑定,同时存在一个单独的公共存储集群,用来存放一些公共资源,比如镜像、公共资源备份等。在发放虚拟机时,对应的业务存储集群需要去公共存储集群下载镜像,耗时且效率低
本发明采用如下技术方案:
本发明提供了一种面向多云场景的镜像同步方法,基于卷积神经网络的AI训练模型实现,方法包括:
根据采集的数据对模型进行卷积神经网络的AI训练模型反复训练,从而修正权值和偏置值,得到适合选择最优路径的权值和偏置值;
其中,采集的数据是以各个业务存储集群和公共存储集群的集群内节点的性能均值和网络指标均值构成的集合;
将所述权值和偏置值导入云管平台中,作为云管平台中卷积神经网络的AI执行模型的配置参数,以便生成最优的同步路径。
优选的,所述卷积神经网络的AI模型,包括:
至少2个卷积层,至少2个池化层和1个全连接层,全连接层输出为每个路径成为最优路径的概率;
其中,在全连接层所输出的每个路径成为最优路径的概率与采集的数据历史实际分配的同步路径匹配时,反向更新AI模型中的权值和偏置值,在经过多次更新后,得到计算相对最优路径的AI模型的权值和偏置,并被导入云管平台中,作为云管平台中卷积神经网络的AI执行模型的配置参数。
优选的,所述采集的数据是以各个业务存储集群和公共存储集群的集群内节点的性能均值和网络指标均值构成的集合,具体为:
网络指标均值包括可用带宽a_bw和网络时延dly;
集群内节点的性能均值包括存储I/O使用率io_rt、CPU使用率cpu_rt和可用内存a_rm;
以连续的预设长度时间段作为数据矩阵的第一维度属性,以业务存储集群和公共存储集群作为数据矩阵的第二维度属性的区域划分,并以上述各个网络指标均值和集群内节点的性能均值作为第二维度划分后,从而形成采集的数据矩阵;
其中,在所述数据矩阵的第一维度属性中,在单位时间长度下采集到的网络指标均值和集群内节点的性能均值,均关联有历史实际分配的同步路经,所述同步路径作为所述反复训练过程修正权值和偏置值的依据。
优选的,在所述第一维度属性为列属性,第二维度属性为行属性时,第一层卷积层进行如下公式一的计算:
其中,pi为输入向量,其中pi对应所述数据矩阵的第i列;P代表(p1,p2,...,pn)T的矩阵;wi为权值向量,W代表(w1,w2,...,wn)的矩阵,b为偏置值,f为激活函数:f(x)=max(0,x)。
优选的,第一层池化层进行如下公式二的计算:
其中,qi为第一层卷积层的输出向量,其中qi对应所述数据矩阵的第i列;Q代表(q1,q2,...,qn)T的矩阵;wi’为权值向量,W’代表(w1’,w2’,...,wn’)的矩阵,c为偏置值,f为激活函数:f(x)=max(0,x)。
优选的,所述根据采集的数据对模型进行卷积神经网络的AI训练模型反复训练,从而修正权值和偏置值,具体包括:
将数据矩阵作为输入数据导入卷积神经网络的AI训练模型,将所述卷积神经网络的AI训练模型输出的最优路径阵列与所述数据矩阵的每一列均关联有的历史实际分配的同步路经构成的阵列进行曲线拟合;其中,数据矩阵每一列会在全连接层输出中得到每个路径成为最优路径的概率,以概率值排序筛选出概率最大值的同步路径作为数据矩阵相应列数据的最优路径,各列数据的最优路径组合构成所述最优路径阵列;
根据拟合过程中得到的参数值作为依据,修正所述权值和偏置值,从而完成一轮训练过程;利用一组或者多组数据矩阵迭代导入卷积神经网络的AI训练模型反复上述训练过程直至修正后的权值和偏置值,对于再次导入所述卷积神经网络的AI训练模型的数据矩阵所输出的最优路径阵列与相应数据矩阵的每一列均关联有的历史实际分配的同步路经构成的阵列拟合出的曲线偏差在预设范围内。
优选的,所述将所述权值和偏置值导入云管平台中,作为云管平台中卷积神经网络的AI执行模型的配置参数之前,方法还包括:
根据公共存储集群向业务存储集群是单向同步原则,以及业务存储集群之间是双向同步的原则,生成当前所有可能的同步路径;
将当前所有可能的同步路径与用于训练卷积神经网络的AI训练模型的数据矩阵所关联的同步路径进行匹配,若匹配度大于等于预设值则使用所述运管平台进行最优的同步路径计算;若匹配对小于预设值则更新采集的数据,并重新进行卷积神经网络的AI训练模型的训练,从而得到更新后的权值和偏置值,用于导入云管平台中,以适用于当前的同步环境。
优选的,所述的采集的数据是根据历史上建立起来的数据同步环境,设定相同的业务存储集群和公共存储集群的集群内节点的性能均值和网络指标均值,并分别采用不同的同步路径比对分析出相应的历史最优路径。
优选的,在所述业务存储集群中还设置有缓存池,用于缓存镜像,在对缓存池的容量清理时,遵循根据公式三得到的weight值,对于weight位于末尾的一个或者多个镜像进行删除处理,所述公式三具体为:
其中,weight为每个模板卷称重的重量;num是使用模板卷创建子卷的数量,代表该镜像的使用频繁程度;cap是模板卷的大小,代表可以释放的容量大小;time是最近一次使用该模板卷创建新卷距离当前的时间;α、β、θ为称重系数,根据用户的需求进行配置。
第二方面,本发明还提供了一种面向多云场景的镜像同步装置,用于实现第一方面所述的面向多云场景的镜像同步方法,所述装置包括:
至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述处理器执行,用于执行第一方面所述的面向多云场景的镜像同步方法。
第三方面,本发明还提供了一种非易失性计算机存储介质,所述计算机存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,用于完成第一方面所述的面向多云场景的镜像同步方法。
本发明利用AI技术构建同步模型,支持根据传输效率动态选择最优路径,将公共存储集群的镜像同步到业务存储集群中,提升镜像同步效率,同时支持对缓存池进行自动化容量管理。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍。显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的现有技术中面向多云场景的镜像同步架构示意图;
图2为本发明实施例提供的一种面向多云场景的镜像同步方法流程示意图;
图3为本发明实施例提供的一段时间内存储集群的参数矩阵;
图4为本发明实施例提供的2层的卷积神经网络模型图;
图5为本发明实施例提供的一段时间内最优路径的标记结果;
图6为本发明实施例提供的一种面向多云场景的镜像同步方法流程示意图;
图7为本发明实施例提供的镜像同步示意图;
图8为本发明实施例提供的一种面向多云场景的镜像同步方法流程示意图;
图9为本发明实施例提供的一种面向多云场景的镜像同步装置结构示意图。
【具体实施方式】
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明利用AI技术构建同步模型,支持根据传输效率动态选择最优路径,将公共存储集群的镜像同步到业务存储集群中,提升镜像同步效率,同时还可以支持对缓存池进行自动化容量管理。
此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
实施例1:
本发明实施例提供了一种面向多云场景的镜像同步方法,基于卷积神经网络的AI模型,如图2所示,方法包括:
在步骤201中,根据采集的数据对模型进行卷积神经网络的AI训练模型反复训练,从而修正权值和偏置值,得到适合选择最优路径的权值和偏置值。
权值和偏置值作为模型公式中的参数,例如:下面公式一中的权值wi和偏置值b,训练过程中需要反复更新相应模型参数,直到达到一定准确率时的参数即为模型最终参数,即得到适合选择最优路径的权值和偏置值。此处的准确率可以根据实际测试经验设定,准确率要求的越高则所耗费的计算资源会越多,但是最终结果的有效性也会越好。
其中,采集的数据是以各个业务存储集群和公共存储集群的集群内节点的性能均值和网络指标均值构成的集合。所述权值的数量与采集的数据中的参数项的数量相对应。
所述权值的数量与采集的数据中的参数项的数量相对应;以图3为例,有多少行就有多少个数量的权值,按本发明实施例中的模型来说,图3有n列,就会存在2*n个权值,其中,2为神经元的层数(此参数也会根据实际采用的神经元的层数进行调整),如图4所述,相应的神经元的层数为2,conv1和pool1构成第一层神经元,conv2和pool2构成第二层神经元。
通常所述的采集的数据是根据历史上建立起来的数据同步环境,设定相同的业务存储集群和公共存储集群的集群内节点的性能均值和网络指标均值,并分别采用不同的同步路径比对分析出相应的历史最优路径。
在步骤202中,将所述权值和偏置值导入云管平台中,作为云管平台中卷积神经网络的AI执行模型的配置参数,以便生成最优的同步路径。
在实现过程中,所述权值和偏置值将作为决策器的构成要素,并进一步将决策器以模块插件的形式引入云管平台中,在同步之前,使用该模块插件进行路径选择,可得到最优的同步路径;同时,该路径选择模块插件支持重载,通过持续的模型训练修正权值和偏置值,达到提升决策结果为最优路径的概率,并将优化后的模型参数(即修正后的权值和偏置值)同步更新到云管平台中,另外,当环境中的存储集群发生变化时,也可以重新训练并将最新的决策器同步更新到云管平台中。在具体实现过程中,所述决策器的内容表现最为简要的一种就是卷积神经网络的AI训练模型,在本发明后续实施例内容中所述决策器也被表述为卷积神经网络的AI执行模型。
本发明实施例利用AI技术构建同步模型,支持根据传输效率动态选择最优路径,将公共存储集群的镜像同步到业务存储集群中,提升镜像同步效率。
如图3所示,本发明实施例提供了一种实现案例,用于阐述所述采集的数据是以各个业务存储集群和公共存储集群的集群内节点的性能均值和网络指标均值构成的集合的表现方式,具体为:
网络指标均值包括可用带宽a_bw,网络时延dly;
集群内节点的性能均值包括存储I/O使用率io_rt,CPU使用率cpu_rt,可用内存a_rm;
以连续的预设长度时间段(如图3中所呈现的t0~t1,t1~t2,tn~tn+1等等,均为相应预设长度时间段的表现内容)作为数据矩阵的第一维度属性(如图3所示即为列),以业务存储集群和公共存储集群作为数据矩阵的第二维度属性(如图3所示即为行)的区域划分(以图3为例,其中所有行中包含有“A:”的多个行单元构成一行划分区域),后面将直接采用列和行作为第一维度属性和第二维度属性的直接表述,而作为本领域技术人员也可知悉,上述第一维度属性和第二维度属性也可以根据不同场景表现出不同的表述形式,例如分别被表述为行和列,以及其他关系型数据库中可能的表述形式,在此不应将行和列表述作为其范围的直接限定因素。以上述各个网络指标均值和集群内节点的性能均值作为行划分后,构成行区域内所包含的各个行单元的属性,从而形成采集的数据矩阵,即上述的以各个业务存储集群和公共存储集群的集群内节点的性能均值和网络指标均值构成的集合。
在本发明实施例实现方式中,给予了一种卷积神经网络的AI模型的实现案例,如图4所示,包括:
至少2个卷积层(图4中的Conv层),至少2个池化层(图4中的Pool层)和1个全连接层(图4中的Fc层),全连接层输出为每个路径成为最优路径的概率。在本发明实施例中考虑到实际模型及解决该问题的复杂度,输入参数的矩阵大小,以及训练效率后,综合认为如图4所示的2层模型即可解决最低程度的网络需求。其中,每一层神经网络中的一个卷积层方块单元Conv1加上一个池化层方块单元Pool1即理解为相应层神经网络中的一个神经元。
其中,在全连接层所输出的每个路径成为最有路径的概率与采集的数据历史实际分配的同步路径匹配时,反向更新当前的权值和偏置值,在经过多次更新后,得到计算相对最优路径的AI模型的权值和偏置,并被导入云管平台中,作为云管平台中卷积神经网络的AI执行模型的配置参数。
在本发明实施例中,还给予了神经网络各层计算内容的一种实例表现,第一层卷积层进行如下公式一的计算:
其中,pi为输入向量,其中pi对应图5中所述数据矩阵的第i列(在图5中实际示例了n+1列的数据内容,即从左侧t0~t1作为第一列算起,到最右侧的tn~tn+1呈现了n+1列的数据内容,分别用Path_list[0]~Path_list[n+1]进行了数据内容的标识,而上述公式一使用了其中n列数据);P代表(p1,p2,...,pn)T的矩阵;wi为权值向量,W代表(w1,w2,...,wn)的矩阵,b为偏置值,f为激活函数:f(x)=max(0,x),权值和偏置值在初始状态均可以通过随机值来填充;其中,每一层卷积层和池化层的神经元进行所述公式一计算获取结果集合中的特征向量(即公式一中的计算结果a),并通过激活函数f进行正值化筛选,并将特征值(即第一层神经元的计算结果a)传递到下一层的神经元再进行公式一的计算,并得出最终的特征向量输出给全连接层。
相应的,第一层池化层进行如下公式二的计算:
其中,qi为第一层卷积层的输出向量,其中qi对应所述数据矩阵的第i列;Q代表(q1,q2,...,qn)T的矩阵;wi’为权值向量,W’代表(w1’,w2’,...,wn’)的矩阵,c为偏置值,f为激活函数:f(x)=max(0,x)。实际情况中,第二层卷积层和第二层池化层的计算也和上述公式二类似,唯一不同的就是公式二中的参数q、权值向量w’和偏置值都需要分别做调整。
相应的运算过程示例性呈现如下:
由于输入参数(即上述采集的数据矩阵)确定,在第一层神经元计算时,通过如上的公式一进行运算,即第一层运算结果为f(wTp+b)=max(0,wTp+b),然后将第一层的运算结果f(wTp+b)作为第二层神经元的输入参数,再进行一次运算,其中,权值和偏置值不作为参数传递到下一层神经元,每一层神经元都有自己的权值和偏置值(初始状态每一层神经元中的权重值和偏置值使用随机数生成)。根据如上的激活函数得出二层神经元运算的结果,然后通过全连接层输出每个路径成为最优路径的概率。
例如,通过2层神经元的计算以后,进入全连接层进行数据整合,最终输出为每个路径成为最优路径的概率(每个路径成为最优路径的概率总和为1)。本发明实施例所使用的训练集(即采集的数据构成的集合)是由m个带有标记的样本(即图5中一列的值,拿图5来说,此时m=n+1)组成:{(x(1),y(1)),…,(x(m),y(m))},其中输入的特征x(i)(其中,i属于[1,m],即对应)即认为是第一层神经元的输入向量,y(m)则是样本的标记结果,分类的类标记y(i)∈{0,1,2,…,k},其中,k代表路径总数,即全网能够组织其的所有路径总合;此处(x(1),y(1))的含义是,对应于图5所示的每一条样本数据,都会存在一条实际分配过的同步路径与之对应。
在本发明实施例实现过程中,根据当前分析网络中包含的业务存储集群和公共存储集群,生成所有可能的同步路径,具体是根据公共存储集群向业务存储集群是单向同步的原则,以及业务存储集群之间是双向同步的原则,生成所有可能的同步路径的规则进行的。
以图7所实例的场景为例,A为公共存储集群,B,C,D为业务存储集群,其中A到B,C,D为单向同步,B,C,D之间可双向同步,一个节点同时只能给一个节点同步数据,寻求从A出发之后遍历所有节点的时间最短路径。由前述可知,所有可能的路径是一个有限元素的集合,例如:Path_list=[(A->B,B->C,C->D),(A->B,A->C,B->D),(A->B,A->C,C->D),(A->B,A->D,B->C),(A->B,A->C,A->D)…]。
结合本发明实施例,针对上述的根据采集的数据对模型进行卷积神经网络的AI训练模型反复训练,从而修正权值和偏置值,还提供了一种具体的实现方式,如图6所示,包括:
在步骤301中,将数据矩阵作为输入数据导入卷积神经网络的AI训练模型,将所述卷积神经网络的AI训练模型输出的最优路径阵列与所述数据矩阵的每一列均关联有的历史实际分配的同步路经构成的阵列进行曲线拟合。
其中,数据矩阵每一列会在全连接层输出中得到每个路径成为最优路径的概率,以概率值排序筛选出概率最大值的同步路径作为数据矩阵相应列数据的最优路径,各列数据的最优路径组合构成所述最优路径阵列。
在步骤302中,根据拟合过程中得到的参数值作为依据,修正所述权值和偏置值,从而完成一轮训练过程。
在步骤303中,利用一组或者多组数据矩阵迭代导入卷积神经网络的AI训练模型反复上述训练过程直至修正后的权值和偏置值,对于再次导入所述卷积神经网络的AI训练模型的数据矩阵所输出的最优路径阵列与相应数据矩阵的每一列均关联有的历史实际分配的同步路经构成的阵列拟合出的曲线偏差在预设范围内。其中,预设范围可以根据经验和有限次尝试得到。
结合本发明实施例,针对上述的将所述权值和偏置值导入云管平台中,作为云管平台中卷积神经网络的AI执行模型的配置参数之前,如图8所示,方法还包括:
在步骤401中,根据公共存储集群向业务存储集群是单向同步原则,以及业务存储集群之间是双向同步的原则,生成当前所有可能的同步路径。
在步骤402中,将当前所有可能的同步路径与用于训练卷积神经网络的AI训练模型的数据矩阵所关联的同步路径进行匹配。
在步骤403中,若匹配度大于等于预设值则使用所述运管平台进行最优的同步路径计算。
在步骤404中,若匹配对小于预设值则更新采集的数据,并重新进行卷积神经网络的AI训练模型的训练,从而得到更新后的权值和偏置值,用于导入云管平台中,以适用于当前的同步环境。
本发明实施例同时还可以支持对缓存池进行自动化容量管理。在所述业务存储集群中还设置有缓存池,用于缓存镜像(镜像的存在会和同步过程产生资源竞争关系),在对缓存池的容量清理时,遵循如下的公式三得到的weight值,对于weight位于末尾的一个或者多个镜像进行删除处理,所述公式三具体为:
其中,w为每个模板卷(即缓存,理解是镜像所占用的缓存)称重的重量;num是使用模板卷创建子卷的数量,代表该镜像的使用频繁程度(此处子卷可以理解为镜像被运行后申请缓存资源的过程);cap是模板卷的大小,代表可以释放的容量大小;time是最近一次使用该模板卷创建新卷距离当前的时间(小时),代表是否是最近被使用的镜像;α、β、θ为称重系数,根据用户的需求进行配置。在某个存储集群触发容量告警以后,根据如上的公式计算该存储集群上每个缓存对象(模板卷)的重量,然后将计算后的结果由小到大排序,清理重量较小的3个模板卷,释放容量;
比如用户关注要尽可能的释放大的容量,可以调大β;如果用户不希望使用频繁的镜像卷被删除,那么可以调大α;如果用户不希望最近被使用的镜像模板卷被删除,那么可以调小θ;计算出的结果由小到大排序,数值较小代表该镜像缓存的称重结果较小,需要优先被删除。
比如用户希望释放更大的容量,α、β、θ初始值均为1,根据上面的结论,将β调大设置为10,这样的话,α、β、θ对应的值为:1、10、1。
存在两个模板卷:
Vol1:创建了10个子卷(模板卷和子卷,分别对应我们主体方案里神经模型中的那些功能块),模板卷大小为200G,最近一次使用距离当前时间为10H。
Vol2:创建了20个子卷,模板卷大小为500G,最近一次使用距离当前时间为5H。
通过如上的公式二计算出来:
Vol1的称重结果为:0.04762;
Vol2的称重结果为:0.03960;
从称重结果来看,Vol2重量更小,最终在删除模板卷时,会优先选择重量较小的Vol2,因为它(释放的容量更大),这样可以满足用户设置β的最终诉求;
在该模块中存在一个定时任务,定期检查是否存在模板卷的镜像已经被删除,如果已删除,清除其模板卷,释放容量。
实施例2:
如图9所示,是本发明实施例的面向多云场景的镜像同步装置的架构示意图。本实施例的面向多云场景的镜像同步装置包括一个或多个处理器21以及存储器22。其中,图9中以一个处理器21为例。
处理器21和存储器22可以通过总线或者其他方式连接,图9中以通过总线连接为例。
存储器22作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序和非易失性计算机可执行程序,如实施例1中的面向多云场景的镜像同步方法。处理器21通过运行存储在存储器22中的非易失性软件程序和指令,从而执行面向多云场景的镜像同步方法。
存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器22可选包括相对于处理器21远程设置的存储器,这些远程存储器可以通过网络连接至处理器21。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述程序指令/模块存储在所述存储器22中,当被所述一个或者多个处理器21执行时,执行上述实施例1中的面向多云场景的镜像同步方法,例如,执行以上描述的图2、图6和图8所示的各个步骤。
值得说明的是,上述装置和系统内的模块、单元之间的信息交互、执行过程等内容,由于与本发明的处理方法实施例基于同一构思,具体内容可参见本发明方法实施例中的叙述,此处不再赘述。
本领域普通技术人员可以理解实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种面向多云场景的镜像同步方法,其特征在于,基于卷积神经网络的AI训练模型实现,方法包括:
将采集的数据矩阵作为输入数据导入卷积神经网络的AI训练模型,将所述卷积神经网络的AI训练模型输出的最优路径阵列与所述数据矩阵的每一列均关联有的历史实际分配的同步路经构成的阵列进行曲线拟合;根据拟合过程中得到的参数值作为依据,修正权值和偏置值,从而完成一轮训练过程;利用一组或者多组数据矩阵迭代导入卷积神经网络的AI训练模型反复上述训练过程直至修正后的权值和偏置值,最终得到适合选择最优路径的权值和偏置值;
其中,采集的数据是以各个业务存储集群和公共存储集群的集群内节点的性能均值和网络指标均值构成的集合; 以连续的预设长度时间段作为数据矩阵的第一维度属性,以业务存储集群和公共存储集群作为数据矩阵的第二维度属性的区域划分,并以各个上述网络指标均值和集群内节点的性能均值作为第二维度划分后,从而形成采集的数据矩阵;
所述卷积神经网络的AI模型,包括卷积层、池化层和全连接层,全连接层输出为每个路径成为最优路径的概率;全连接层所输出的每个路径成为最优路径的概率与采集的数据历史实际分配的同步路径匹配时,反向更新AI模型中的权值和偏置值,在经过多次更新后,得到计算相对最优路径的AI模型的权值和偏置值,将所述权值和偏置值导入云管平台中,作为云管平台中卷积神经网络的AI执行模型的配置参数,以便生成最优的同步路径。
2.根据权利要求1所述的面向多云场景的镜像同步方法,其特征在于,所述采集的数据是以各个业务存储集群和公共存储集群的集群内节点的性能均值和网络指标均值构成的集合,具体为:
网络指标均值包括可用带宽a_bw和网络时延dly;
集群内节点的性能均值包括存储I/O使用率io_rt、CPU使用率cpu_rt和可用内存a_rm;
其中,在所述数据矩阵的第一维度属性中,在单位时间长度下采集到的网络指标均值和集群内节点的性能均值,均关联有历史实际分配的同步路经,所述同步路径作为反复训练过程修正权值和偏置值的依据。
5.根据权利要求1所述的面向多云场景的镜像同步方法,其特征在于,还包括:
数据矩阵每一列会在全连接层输出中得到每个路径成为最优路径的概率,以概率值排序筛选出概率最大值的同步路径作为数据矩阵相应列数据的最优路径,各列数据的最优路径组合构成所述最优路径阵列;
对于再次导入所述卷积神经网络的AI训练模型的数据矩阵所输出的最优路径阵列与相应数据矩阵的每一列均关联有的历史实际分配的同步路经构成的阵列拟合出的曲线偏差在预设范围内。
6.根据权利要求1所述的面向多云场景的镜像同步方法,其特征在于,所述将所述权值和偏置值导入云管平台中,作为云管平台中卷积神经网络的AI执行模型的配置参数之前,方法还包括:
根据公共存储集群向业务存储集群是单向同步原则,以及业务存储集群之间是双向同步的原则,生成当前所有可能的同步路径;
将当前所有可能的同步路径与用于训练卷积神经网络的AI训练模型的数据矩阵所关联的同步路径进行匹配,若匹配度大于等于预设值则使用所述云管平台进行最优的同步路径计算;若匹配对小于预设值则更新采集的数据,并重新进行卷积神经网络的AI训练模型的训练,从而得到更新后的权值和偏置值,用于导入云管平台中,以适用于当前的同步环境。
7.根据权利要求1所述的面向多云场景的镜像同步方法,其特征在于,所述的采集的数据是根据历史上建立起来的数据同步环境,设定相同的业务存储集群和公共存储集群的集群内节点的性能均值和网络指标均值,并分别采用不同的同步路径比对分析出相应的历史最优路径。
9.一种面向多云场景的镜像同步装置,其特征在于,所述装置包括:
至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述处理器执行,用于执行权利要求1-8任一所述的面向多云场景的镜像同步方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111137368.9A CN114124973B (zh) | 2021-09-27 | 2021-09-27 | 一种面向多云场景的镜像同步方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111137368.9A CN114124973B (zh) | 2021-09-27 | 2021-09-27 | 一种面向多云场景的镜像同步方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114124973A CN114124973A (zh) | 2022-03-01 |
CN114124973B true CN114124973B (zh) | 2023-06-09 |
Family
ID=80441446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111137368.9A Active CN114124973B (zh) | 2021-09-27 | 2021-09-27 | 一种面向多云场景的镜像同步方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114124973B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116777375B (zh) * | 2023-06-20 | 2024-02-23 | 苏州智本信息科技有限公司 | 一种基于机器视觉的工业互联网系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102496060A (zh) * | 2011-12-07 | 2012-06-13 | 高汉中 | 基于神经网络的云端智能机系统 |
CN109905423A (zh) * | 2017-12-08 | 2019-06-18 | 上海仪电(集团)有限公司中央研究院 | 一种智能管理系统 |
CN109948651A (zh) * | 2019-02-13 | 2019-06-28 | 平安科技(深圳)有限公司 | 卷积神经网络的池化方法、装置及存储介质、计算机设备 |
CN110675418A (zh) * | 2019-09-26 | 2020-01-10 | 深圳市唯特视科技有限公司 | 一种基于ds证据理论的目标轨迹优化方法 |
US10790056B1 (en) * | 2019-04-16 | 2020-09-29 | International Medical Solutions, Inc. | Methods and systems for syncing medical images across one or more networks and devices |
CN112764878A (zh) * | 2021-01-13 | 2021-05-07 | 中科曙光(南京)计算技术有限公司 | 一种基于深度学习的大数据一体机容器集群风险预测方法 |
CN113285875A (zh) * | 2021-05-14 | 2021-08-20 | 南京大学 | 一种基于脉冲神经网络的空间路由预测方法 |
CN113326930A (zh) * | 2020-02-29 | 2021-08-31 | 华为技术有限公司 | 数据处理方法、神经网络的训练方法及相关装置、设备 |
-
2021
- 2021-09-27 CN CN202111137368.9A patent/CN114124973B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102496060A (zh) * | 2011-12-07 | 2012-06-13 | 高汉中 | 基于神经网络的云端智能机系统 |
CN109905423A (zh) * | 2017-12-08 | 2019-06-18 | 上海仪电(集团)有限公司中央研究院 | 一种智能管理系统 |
CN109948651A (zh) * | 2019-02-13 | 2019-06-28 | 平安科技(深圳)有限公司 | 卷积神经网络的池化方法、装置及存储介质、计算机设备 |
US10790056B1 (en) * | 2019-04-16 | 2020-09-29 | International Medical Solutions, Inc. | Methods and systems for syncing medical images across one or more networks and devices |
CN110675418A (zh) * | 2019-09-26 | 2020-01-10 | 深圳市唯特视科技有限公司 | 一种基于ds证据理论的目标轨迹优化方法 |
CN113326930A (zh) * | 2020-02-29 | 2021-08-31 | 华为技术有限公司 | 数据处理方法、神经网络的训练方法及相关装置、设备 |
CN112764878A (zh) * | 2021-01-13 | 2021-05-07 | 中科曙光(南京)计算技术有限公司 | 一种基于深度学习的大数据一体机容器集群风险预测方法 |
CN113285875A (zh) * | 2021-05-14 | 2021-08-20 | 南京大学 | 一种基于脉冲神经网络的空间路由预测方法 |
Non-Patent Citations (1)
Title |
---|
《Using Neural Networks on Cloud Container’s Performance Comparison By R on Docker (ROCKER)》;Agustinus Bimo Gumelar etal;《2018 International Symposium on Advanced Intelligent Informatics (SAIN)》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114124973A (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10282809B2 (en) | Data parallel processing method and apparatus based on multiple graphic processing units | |
Zhang et al. | Poseidon: An efficient communication architecture for distributed deep learning on {GPU} clusters | |
CN110134636B (zh) | 模型训练方法、服务器和计算机可读存储介质 | |
US9607355B2 (en) | Model parallel processing method and apparatus based on multiple graphic processing units | |
WO2018099084A1 (zh) | 一种神经网络模型训练方法、装置、芯片和系统 | |
CN106503791A (zh) | 用于有效神经网络部署的系统和方法 | |
CN110222005A (zh) | 用于异构架构的数据处理系统及其方法 | |
CN111324630B (zh) | 基于mpi的神经网络架构搜索并行化方法和设备 | |
CN113642734A (zh) | 一种深度学习模型的分布式训练方法、装置以及计算设备 | |
CN114124973B (zh) | 一种面向多云场景的镜像同步方法和装置 | |
CN110109890A (zh) | 非结构化数据处理方法和非结构化数据处理系统 | |
CN113298222A (zh) | 一种基于神经网络的参数更新方法、分布式训练平台系统 | |
CN111857734A (zh) | 一种分布式深度学习模型平台部署及使用方法 | |
CN116502683A (zh) | 一种全流程并行加速脑仿真方法及系统 | |
CN107992358A (zh) | 一种适用于核外图处理系统的异步io执行方法及系统 | |
CN112506644B (zh) | 基于云边端混合计算模式系统的任务调度方法和系统 | |
CN113822453B (zh) | 5g切片的多用户投诉共性确定方法及装置 | |
CN115016911A (zh) | 面向大规模联邦学习的任务编排方法、装置、设备和介质 | |
CN108733739A (zh) | 支持集束搜索的运算装置和方法 | |
CN109828968A (zh) | 一种数据去重处理方法、装置、设备、集群及存储介质 | |
CN117251276B (zh) | 一种面向协作学习平台的灵活调度方法及装置 | |
CN115987998B (zh) | 微服务系统领袖者选举方法、系统、存储介质和电子设备 | |
CN117687801B (zh) | 一种跨域分布式计算系统、方法、存储介质和电子设备 | |
CN110456985B (zh) | 面向多模态网络大数据的层次型存储方法及系统 | |
CN108363778B (zh) | 一种基于信息中心网络的大数据收集分析系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |