CN112187535A - 雾计算环境下服务器部署方法及装置 - Google Patents

雾计算环境下服务器部署方法及装置 Download PDF

Info

Publication number
CN112187535A
CN112187535A CN202010994357.1A CN202010994357A CN112187535A CN 112187535 A CN112187535 A CN 112187535A CN 202010994357 A CN202010994357 A CN 202010994357A CN 112187535 A CN112187535 A CN 112187535A
Authority
CN
China
Prior art keywords
service
network
service node
user
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010994357.1A
Other languages
English (en)
Other versions
CN112187535B (zh
Inventor
邹彪
杜伟
沈建
汪骏
武艺
孙鸿博
孔令宇
孟小前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sgcc General Aviation Co ltd
State Grid Corp of China SGCC
Original Assignee
Sgcc General Aviation Co ltd
State Grid Corp of China SGCC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sgcc General Aviation Co ltd, State Grid Corp of China SGCC filed Critical Sgcc General Aviation Co ltd
Priority to CN202010994357.1A priority Critical patent/CN112187535B/zh
Publication of CN112187535A publication Critical patent/CN112187535A/zh
Application granted granted Critical
Publication of CN112187535B publication Critical patent/CN112187535B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/142Network analysis or design using statistical or mathematical methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Environmental & Geological Engineering (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明提供了一种雾计算环境下服务器部署方法及装置,涉及计算机领域,该方法包括获取用户请求数据和网络拓扑数据;网络拓扑数据包括服务节点的存储空间容量信息和链路信息;根据用户请求数据、存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息;网络总流量函数用于描述网络中服务节点承载的网络总流量;根据链路信息和网络总流量函数,利用拉格朗日算子计算每个服务节点部署信息的服务节点集合;根据网络总流量函数在多个服务节点集合中确定目标服务节点集合,按照目标服务节点集合部署服务器。本发明可以通过优化对服务节点的部署,提高雾计算环境下网络资源利用率。

Description

雾计算环境下服务器部署方法及装置
技术领域
本发明涉及计算机技术领域,尤其是涉及一种雾计算环境下服务器部署方法及装置。
背景技术
随着5G网络在生产和生活中的快速应用,各种业务对计算资源和存储资源的响应速度提出了越来越高的要求。这种背景下,雾计算技术被提出,并且得到了快速发展。在雾计算环境下,用户使用服务的流程主要包括使用存储服务流程和使用计算服务流程。现有的雾计算资源分配方案中,由于对存储服务节点以及计算服务节点分配不均衡,导致网络资源利用率较低,因此,如何对雾计算资源进行部署和分配已成为一个重要的研究问题。
发明内容
本发明提供了一种雾计算环境下服务器部署方法及装置,可以通过优化对服务节点的部署,提高网络资源的利用率。
第一方面,本发明实施例提供了一种雾计算环境下服务器部署方法,该方法包括:获取用户请求数据和网络拓扑数据;所述网络拓扑数据包括服务节点的存储空间容量信息和链路信息;根据所述用户请求数据、所述存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息;所述网络总流量函数用于描述网络中服务节点承载的网络总流量;根据所述链路信息和所述网络总流量函数,利用拉格朗日算子计算每个所述服务节点部署信息的服务节点集合;根据所述网络总流量函数在多个所述服务节点集合中确定目标服务节点集合,按照所述目标服务节点集合部署服务器。
第二方面,本发明实施例还提供一种雾计算环境下服务器部署装置,该装置包括:获取模块,用于获取用户请求数据和网络拓扑数据;所述网络拓扑数据包括服务节点的存储空间容量信息和链路信息;第一计算模块,用于根据所述用户请求数据、所述存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息;所述网络总流量函数用于描述网络中服务节点承载的网络总流量;第二计算模块,用于根据所述链路信息和所述网络总流量函数,利用拉格朗日算子计算每个所述服务节点部署信息的服务节点集合;部署模块,用于根据所述网络总流量函数在多个所述服务节点集合中确定目标服务节点集合,按照所述目标服务节点集合部署服务器。
第三方面,本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述雾计算环境下服务器部署方法。
第四方面,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述雾计算环境下服务器部署方法的计算机程序。
本发明实施例带来了以下有益效果:本发明实施例提供了一种雾计算环境下服务器部署方案,该方案首先获取用户请求数据和网络拓扑数据,网络拓扑数据包括服务节点的存储空间容量信息和链路信息,之后,根据用户请求数据、存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息,从而得到多个优选的部署方案,其中,网络总流量函数用于描述网络中服务节点承载的网络总流量,根据链路信息和网络总流量函数,利用拉格朗日算子计算每个服务节点部署信息的服务节点集合,从而实现根据链路信息维度对部署方案的优化,从部署方案中确定优选的服务节点集合,之后,根据网络总流量函数在多个服务节点集合中确定目标服务节点集合,实现在多组优选集合中选择使网络资源利用率最优的目标服务节点集合,最后,按照目标服务节点集合部署服务器。本发明实施例可以通过优化对服务节点的部署,提高雾计算环境下网络资源利用率。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的雾计算环境下服务器部署方法流程图;
图2为本发明实施例提供的雾计算环境下服务器部署方法执行步骤示意图;
图3为本发明实施例提供的服务器部署数量与服务请求到达率关系示意图;
图4为本发明实施例提供的网络流量与服务请求数量关系示意图;
图5为本发明实施例提供的雾计算环境下服务器部署装置结构框图;
图6为本发明实施例提供的计算机设备结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,已有研究主要采用智能算法、自动感知理论、最优化等方法,对雾计算中存在的资源利用率低、用户任务执行时间长、等问题进行解决。例如,以动态环境下的资源需求目标,基于遗传算法提出了资源需求的预测算法,较好的解决了服务器资源利用率过低的问题。例如,为了最大化计算资源的利用率,基于应用感知理论,将服务器部署到资源需求较大的边缘节点,从而提高了服务器的利用率。例如,以用户能耗最小化为目标,设计了一种基于数据划分的任务卸载机制,较好的降低了任务在网络中的传输功率。例如,以资源能耗和用户任务执行时长最小化为目标,设计了资源分配和任务卸载的联合优化目标函数,并通过近似算法获得最优解。例如,以增加雾计算服务器中的任务量为目标,以服务器利用率为约束条件,周期性的将任务添加到服务器中,从而提高了雾计算网络中的任务数量。再例如,以降低任务执行时限为约束条件,基于能量感知理论,提出虚拟机资源利用率最大化的调度算法,有效降低了虚拟机的能量消耗。
从已有研究分析可知,在雾计算的资源分配方面,已有研究在任务执行时长、任务数量、服务器资源利用率等方面已经取得了较好的结果。但是,已有研究没有将计算资源、存储资源、网络资源进行联合研究,忽略了各种约束之间的关联关系,导致雾计算中的资源使用不均衡。
基于此,本发明实施例提供的一种雾计算下服务器部署方法及装置,从网络拓扑、用户服务请求、存储和计算资源分配、服务节点的流量使用矩阵四个方面对问题进行建模。构建了最小化网络流量目标函数,并提出雾计算下网络资源利用率最大化的服务器部署算法进行求解。该方法在为服务请求提供服务时,减少了网络流量的开销。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种雾计算环境下服务器部署方法进行详细介绍。
本发明实施例提供了一种雾计算环境下服务器部署方法,参见图1所示的一种雾计算环境下服务器部署方法流程图,该方法包括以下步骤:
步骤S102,获取用户请求数据和网络拓扑数据。
在本发明实施例中,用户请求数据包括用户的计算服务请求数据和存储服务请求数据。网络拓扑数据包括服务节点的存储空间容量信息和链路信息。服务节点的存储空间容量信息用于描述网络中各个服务器的容量,链路信息用于描述网络中各个服务器之间的连接关系。网络中的服务器包括计算服务器和存储服务器,计算服务器用于处理用户的计算服务请求数据,存储服务器用于处理用户的存储服务请求数据。
需要说明的是,基于SDN(Software Defined Network,软件定义网络)技术的雾计算网络架构是雾计算的主流架构。在这种架构中的网络设备包括控制器、转发器、远端服务器三种设备。控制器负责转发器的配置和管理。转发器分为网络节点、计算节点、存储节点,分别具备传输、计算、存储三种功能。用户使用服务的流程主要包括使用存储服务流程、使用计算服务流程。用户在使用存储服务时,与其距离用户最近的存储节点检查是否有用户的资源;如没有,向远端服务器请求资源;获得资源后给用户返回。用户使用计算服务时,距离用户最近的计算节点,为用户提供计算功能。
步骤S104,根据用户请求数据、存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息。
在本发明实施例中,网络总流量函数用于描述网络中服务节点承载的网络总流量,在收到了用户请求数据和服务器的存储空间容量信息之后,根据请求数据、存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法对随机生成的部署方案进行优化处理,从而得到多个服务节点部署信息,每个服务节点部署信息作为一种可选存储节点和计算节点部署方案,用于确定存储节点和计算节点在网络中的位置。禁忌遗传算法将禁忌搜索算法与遗传算法进行结合,能够显著提升算法解的质量。
例如,网络中包括100个服务器,一个服务节点部署信息可以为:将第01号、20号、80号以及99号服务器部署为存储节点,将第06号、28号、53号以及67号服务器部署为计算节点;另一个服务节点部署信息可以为:将第03号、15号以及79号服务器部署为存储节点,将第52号、22号、63号、77号以及88号服务器部署为计算节点。
步骤S106,根据链路信息和网络总流量函数,利用拉格朗日算子计算每个服务节点部署信息的服务节点集合。
在本发明实施例中,服务节点集合是根据链路信息和网络总流量函数,利用拉格朗日算子计算,从而从服务节点部署信息中的多个节点中优选出的部分或全部节点。
例如,一个服务节点部署信息可以为:将第01号、20号、80号以及99号服务器部署为存储节点,将第06号、28号、53号以及67号服务器部署为计算节点;则服务节点集合可能为存储节点:第01号、20号和80号服务器,计算节点:第06号和28号服务器。
步骤S108,根据网络总流量函数在多个服务节点集合中确定目标服务节点集合,按照目标服务节点集合部署服务器。
在本发明实施例中,每个服务节点部署信息对应一个服务节点集合,在得到每个服务节点部署信息对应的服务节点集合之后,选择使网络总流量函数值最小的服务节点集合作为目标服务节点集合,按照目标服务节点集合部署服务器,从而使雾计算下网络资源利用率最大化。另外,还可以基于网络中部署的存储节点、计算节点和目标服务节点集合,对网络总流量函数进行更新,并利用更新后的网络总流量函数计算网络总流量。
本发明实施例提供了一种雾计算环境下服务器部署方案,该方案首先获取用户请求数据和网络拓扑数据,网络拓扑数据包括服务节点的存储空间容量信息和链路信息,之后,根据用户请求数据、存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息,从而得到多个优选的部署方案,其中,网络总流量函数用于描述网络中服务节点承载的网络总流量,根据链路信息和网络总流量函数,利用拉格朗日算子计算每个服务节点部署信息的服务节点集合,从而实现根据链路信息维度对部署方案的优化,从部署方案中确定优选的服务节点集合,之后,根据网络总流量函数在多个服务节点集合中确定目标服务节点集合,实现在多组优选集合中选择使网络资源利用率最优的目标服务节点集合,最后,按照目标服务节点集合部署服务器。本发明实施例可以通过优化对服务节点的部署,提高雾计算环境下网络资源利用率。
为了提升算法解的质量,得到更优质的服务节点部署信息,根据用户请求数据、存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息,可以按照如下步骤执行。
获取算法参数;随机生成多个初始服务节点部署信息,将每个初始服务节点部署信息作为一个染色体;根据算法参数对染色体进行选择、交叉和变异操作,得到处理结果;根据用户请求数据和存储空间容量信息计算处理结果对应的网络总流量函数值,根据网络总流量函数值确定多个服务节点部署信息。
在本发明实施例中,算法参数包括初始种群个数、遗传代数、交叉概率以及变异概率等数据。初始服务节点部署信息采用随机生成方法生成,将初始服务节点部署信息作为禁忌遗传搜索算法的初始种群,初始种群中包括多个染色体,将每个初始服务节点部署信息作为一个染色体。根据算法参数对染色体进行选择、交叉和变异操作,对每个染色体生成一个处理结果,将网络总流量函数作为禁忌遗传搜索算法的适应度函数,用于从多个染色体中优选部分染色体,将优选出的染色体作为服务节点部署信息。
需要说明的是,禁忌遗传搜索算法是将遗传算法和禁忌搜索算法进行结合的一种多目标优化请求算法。相比于遗传算法,禁忌遗传算法将交叉过程和变异过程进行了改进,使其具备记忆功能,可以有效防止传统遗传算法早熟的现象,使算法获得了更好的最优解。
参见下表1,禁忌遗传算法包括染色体编码、生成初始种群、构造适应度函数Fi、选择过程、禁忌交叉过程、禁忌变异过程等六个过程。其中,生成初始种群过程采用随机生成方法生成N个个体,适应度函数Fi使用网络总流量函数进行计算。下面对染色体编码、选择过程、禁忌交叉过程、禁忌变异过程四个过程进行详细说明。
(1)染色体编码
假设用户请求K={KA,KB}一共包含p个请求,使用集合Y{Yj|j∈R,R=[1,p]}表示。使用染色体表示这p个请求的分配方案,该染色体的长度为∑a∈R|Na|。Na表示第a个请求所分配的服务节点的集合,例如用户1的内容请求
Figure BDA0002692004870000071
的分配方案为
Figure BDA0002692004870000072
表示
Figure BDA0002692004870000073
上卸载90%,
Figure BDA0002692004870000074
上卸载10%。染色体的第∑a∈[1,j-1]|Na|+i个元素的取值表示为任务
Figure BDA0002692004870000075
分配资源的雾节点的编号
Figure BDA0002692004870000076
其中,任务
Figure BDA0002692004870000077
表示第j个用户的第i个任务。
Figure BDA0002692004870000078
表示满足任务
Figure BDA0002692004870000079
要求的雾节点的集合。基于此可知,[∑c∈[1,a-1]|Nc|+1,∑b∈[1,a]|Nb|]表示为第a个用户的所有任务分配资源的雾节点集合。
(2)选择过程
为了确保适应度值较好的个体能够被选择,从而确保每次的解最优化,在计算选择的个体时,本文采用赌盘选择方法。第i(1≤i≤N)个个体被选择的概率为:
Figure BDA00026920048700000710
(3)禁忌交叉过程
为了避免最优解的搜索过程中出现局部解的循环问题,构建一个禁忌表,该禁忌表中包含L个染色体的适应度值。种群的父代适应度平均值可以使用禁忌表的渴望水平进行计算。其中,渴望水平值为上次迭代计算中获得的最好解的目标值。本文中禁忌交叉过程包括交叉生成新染色体、计算新染色体的适应度值、更新禁忌表三个过程。
在交叉生成新染色体方面,采用双点交叉策略对两个染色体进行变异。即:随机生成两个交叉点,对两个父代个体的交叉点内的序列值进行互换,从而生成两个新的染色体。当新染色体生成后,需要判断每个染色体内部的同一用户任务中是否有相同的雾节点编号。如果有,需要对重复的雾节点编号进行更新。这是因为同一用户的多个任务不能由同一个雾节点分配资源。如果出现重复,本文采用随机替换法,从雾节点集合中选择一个不重复的雾节点进行替换。
在计算新染色体的适应度值方面,使用适应度函数计算新染色体的适应度值。将新染色体的适应度值与禁忌表及其渴望水平进行比较。当新染色体的适应度值大于等于禁忌表的渴望水平时,接受此新染色体。否则,查看新染色体是否属于禁忌表集合。如果不属于,接受此新染色体。如果属于,放弃此新染色体,并从父代染色体中选择未使用的适应度值最大的染色体代替当前染色体。
在更新禁忌表方面,使用新增的染色体更新禁忌表中的染色体,形成新的长度为L的染色体,并计算新的禁忌表渴望水平。
(4)禁忌变异过程
禁忌变异过程包括变异生成新染色体、计算新染色体的适应度值、更新禁忌表三个过程。其中,计算新染色体的适应度值、更新禁忌表过程与禁忌交叉过程相同,不再进行描述。
Figure BDA0002692004870000081
表1
为了防止超出存储空间容量的限制,根据用户请求数据和存储空间容量信息计算处理结果对应的网络总流量函数值,可以按照如下步骤执行:
根据用户请求数据和存储空间容量信息确定第一约束条件;根据第一约束条件计算处理结果对应的网络总流量函数值。按照如下公式根据第一约束条件计算处理结果对应的网络总流量函数值:
Figure BDA0002692004870000082
Figure BDA0002692004870000083
Figure BDA0002692004870000084
Figure BDA0002692004870000085
Figure BDA0002692004870000086
其中,F为网络总流量函数,G为网络总流量函数值,Ds,t表示服务节点s和用户节点t的平均跳数,ka∈KA表示内容服务请求,其容量使用
Figure BDA0002692004870000091
表示,kb∈KB表示计算服务请求,其计算量使用
Figure BDA0002692004870000092
表示,
Figure BDA0002692004870000093
表示服务节点s承载的用户t的服务k的流量,服务k包括ka和kb
Figure BDA0002692004870000094
表示用户t∈T对服务k的速率要求,
Figure BDA0002692004870000095
表示服务节点s承载的用户t的服务k的占比,
Figure BDA0002692004870000096
是二进制变量,当
Figure BDA0002692004870000097
标识服务节点s可以满足用户t的服务k。当
Figure BDA0002692004870000098
标识服务节点s不能满足用户t的服务k,Q={V,E}表示网络拓扑数据,V表示节点集合,
Figure BDA00026920048700000928
表示具有存储能力的节点,具有的存储空间容量使用
Figure BDA0002692004870000099
表示。
Figure BDA00026920048700000910
表示具有计算能力的节点,具有的计算容量使用
Figure BDA00026920048700000911
表示,
Figure BDA00026920048700000912
表示用户节点,E表示链路信息。
在本发明实施例中,
Figure BDA00026920048700000913
Figure BDA00026920048700000914
可以作为第一约束条件,根据用户请求数据可以计算节点对服务器的存储空间容量使用量,在节点对服务器的存储空间容量使用量不超过服务器的存储空间容量限制时,对网络总流量函数最小化处理,得到网络总流量函数值。
考虑到链路维度的影响,根据链路信息和网络总流量函数,利用拉格朗日算子计算每个服务节点部署信息的服务节点集合,可以按照如下步骤执行:
根据链路信息确定第二约束条件;根据第二约束条件,利用拉格朗日算子计算每个服务节点部署信息对应的第二网络总流量函数值;根据第二网络总流量函数值,确定每个服务节点部署信息对应的服务节点集合。按照如下公式根据第二约束条件,利用拉格朗日算子计算每个服务节点部署信息对应的第二网络总流量函数值:
Figure BDA00026920048700000915
Figure BDA00026920048700000916
Figure BDA00026920048700000917
Figure BDA00026920048700000918
Figure BDA00026920048700000919
且xl≤cl
其中,其中,F为网络总流量函数,G为网络总流量函数值,Ds,t表示服务节点s和用户节点t的平均跳数,ka∈KA表示内容服务请求,其容量使用
Figure BDA00026920048700000920
表示,kb∈KB表示计算服务请求,其计算量使用
Figure BDA00026920048700000921
表示,
Figure BDA00026920048700000922
表示服务节点s承载的用户t的服务k的流量,服务k包括ka和kb
Figure BDA00026920048700000923
表示用户t∈T对服务k的速率要求,
Figure BDA00026920048700000924
表示服务节点s承载的用户t的服务k的占比,
Figure BDA00026920048700000925
是二进制变量,当
Figure BDA00026920048700000926
标识服务节点s可以满足用户t的服务k。当
Figure BDA00026920048700000927
标识服务节点s不能满足用户t的服务k,Q={V,E}表示网络拓扑数据,V表示节点集合,
Figure BDA0002692004870000101
表示具有存储能力的节点,具有的存储空间容量使用
Figure BDA0002692004870000102
表示。
Figure BDA0002692004870000103
表示具有计算能力的节点,具有的计算容量使用
Figure BDA0002692004870000104
表示,
Figure BDA0002692004870000105
表示用户节点,E表示链路信息,cl表示链路l的容量,
Figure BDA0002692004870000106
表示服务节点s和用户t之间的链路l的流量占比。
在本发明实施例中,
Figure BDA0002692004870000107
及xl≤cl可以作为第二约束条件,从链路信息信息维度对总流量函数进行最优化,得到总流量函数值,结合拉格朗日算子计算每个服务节点部署信息的服务节点集合。
参见图2所示的雾计算环境下服务器部署方法执行步骤示意图,下面以一个具体实施例对该方法的实施过程进行说明。
201)构建雾计算环境下网络资源利用率最大化模型。
下面从网络拓扑、用户服务请求、存储和计算资源分配、服务节点的流量使用矩阵四个方面对问题进行建模。
在网络拓扑方面,使用Q={V,E}表示网络拓扑,V表示节点集合,
Figure BDA0002692004870000108
表示具有存储能力的节点,具有的存储空间容量使用
Figure BDA0002692004870000109
表示。
Figure BDA00026920048700001010
表示具有计算能力的节点,具有的计算容量使用
Figure BDA00026920048700001011
表示。
Figure BDA00026920048700001012
表示用户节点,
Figure BDA00026920048700001013
表示满足用户需求的源服务节点。E表示链路集合。
在用户服务请求方面,使用ka∈KA表示内容服务请求,其容量使用
Figure BDA00026920048700001014
表示。使用kb∈KB表示计算服务请求,其计算量使用
Figure BDA00026920048700001015
表示。需求矩阵使用
Figure BDA00026920048700001016
表示,其中
Figure BDA00026920048700001017
表示用户t∈T对服务k的速率要求。
在存储和计算资源分配方面,使用
Figure BDA00026920048700001018
表示存储和计算资源分配标识,其中
Figure BDA00026920048700001019
是二进制变量,当
Figure BDA00026920048700001020
标识服务节点s可以满足用户t的服务k。当
Figure BDA00026920048700001021
标识服务节点s不能满足用户t的服务k。所以,存储节点的容量限制表示为:
Figure BDA00026920048700001022
计算节点的容量限制表示为:
Figure BDA00026920048700001023
在服务节点的流量使用矩阵方面,当多个服务节点协作满足一个用户请求时,使用
Figure BDA00026920048700001024
表示服务节点s承载的用户t的服务k的占比。所以,服务节点选择矩阵表示为
Figure BDA00026920048700001025
此时,服务节点s承载的用户t的服务k的流量
Figure BDA00026920048700001026
表示为公式
Figure BDA00026920048700001027
该公式表示流量等于请求的速率×提供的服务比例×存储/计算策略,并且,
Figure BDA00026920048700001028
其中,
Figure BDA00026920048700001029
表示服务节点s承载的用户t的服务k的流量,
Figure BDA00026920048700001030
表示用户t∈T对服务k的速率要求,
Figure BDA00026920048700001031
表示服务节点s承载的用户t的服务k的占比,
Figure BDA0002692004870000111
是二进制变量,当
Figure BDA0002692004870000112
标识服务节点s可以满足用户t的服务k。当
Figure BDA0002692004870000113
标识服务节点s不能满足用户t的服务k。
服务节点s的负载量xs计算方法如公式
Figure BDA0002692004870000114
所示。所以,使用
Figure BDA0002692004870000115
表示流量使用矩阵。
当流量通过多条链路时,服务节点s和用户t之间的链路l的流量占比使用
Figure BDA0002692004870000116
表示,当该链路l的容量是cl时,
Figure BDA0002692004870000117
该式表示:用户t到服务节点s的服务流k的流量
Figure BDA0002692004870000118
×经过链路l的流量占比rl s,t。基于上述分析,本发明将网络的总流量的函数定义为公式
Figure BDA0002692004870000119
其中,Ds,t表示服务节点s和用户节点t的平均跳数为Ds,t,所以,最小化网络流量目标函数为公式
Figure BDA00026920048700001110
约束
Figure BDA00026920048700001111
和约束
Figure BDA00026920048700001112
分别表示分配服务的存储容量和计算容量不能超过服务节点具有的能力;约束
Figure BDA00026920048700001113
表示用户t对服务请求k的需求可以由多个服务节点同时服务;约束xl≤cl表示网络链路上承载的流量不能超过网络链路的容量上限。
202)求解存储节点和计算节点的部署方案设计。
在本发明实施例中,基于禁忌遗传搜索算法求解最佳的存储节点和计算节点的部署方案。
首先,按照染色体编码策略,随机生成N个染色体。将目标函数作为适应度函数Fi,对染色体进行判断,并通过选择、交叉、变异算子进行优化,直到达到算法规定的迭代次数。最后将最优结果作为最佳的存储节点和计算节点部署方案。其中,选择算子使用赌盘选择法进行选择。交叉算子使用双点交叉法进行交叉运算。变异算子使用随机变异方式进行变异运算。在变异操作时,如果新生成的分配方案不属于允许的网络节点,需要重新生成,直到满足网络拓扑要求。
在初始种群中,选择适应度值最高的W个染色体,构建长度为W的禁忌表,并将值设置为染色体的适应度值。将染色体中适应度值最大的适应度值赋值为禁忌表的渴望水平,并取代父代染色体种群的适应度平均值。在染色体更新方面,当新染色体的适应度值大于渴望水平或新染色体不属于禁忌表时,接受这些染色体为下一代染色体。之后,从更新后的染色体集合中选择适应度值最好的染色体更新禁忌表。
在染色体编码策略方面,目标是求解最佳存储节点和计算节点部署方案,所以,本发明以部署方案构建染色体。
203)雾计算下网络资源利用率最大化的服务器部署算法设计。
参见表2,从约束条件可知,第一约束条件解决存储节点和计算节点部署位置的问题,第二约束条件解决最佳的服务节点集合的问题。如果同时进行求解,难度较大。
为简化问题的求解,本方案将此问题分为三个步骤执行。(1)、步骤1首先放松服务分配和流量容量约束,仅使用第一约束条件,求解最优的存储节点和计算节点部署位置。此问题属于最优策略搜索问题,使用禁忌遗传搜索算法,实现全局最优搜索。禁忌遗传搜索算法将在下一节进行描述。(2)、步骤2中,基于最优的存储节点和计算节点部署位置,放松存储容量和计算容量限制,使用第二约束条件求解最佳的服务节点集合。此时函数为凸函数,可以使用拉格朗日算子进行计算。(3)、使用网络总流量函数计算网络的流量。
Figure BDA0002692004870000121
表2
204)执行资源分配。
实验环境包括网络拓扑环境生成和关键技术参数设置两个方面。为生成符合商业环境的网络拓扑环境,本发明使用商业网络拓扑的典型代表S64[Choi N,Guan K,Kilper DC,et al.In-network caching effect on optimal energy consumption in content-centric networking[C]//2012 IEEE international conference on communications(ICC).IEEE,2012:2889-2894.]模拟网络拓扑环境。在关键技术参数设置方面,网络流量中的路由协议使用OSPF(Open Shortest Path First,开放式最短路径优先)协议,存储请求和计算请求的规模设置为服从[1Mb,5Mb]的均匀分布。
为验证算法性能,将本发明雾计算下网络资源利用率最大化的服务器部署算法(Server deployment algorithm for maximizing network resource utilizationunder edge computing,SDAoMNRU)与算法SDAoMF(Server deployment algorithm basedon minimum flow)进行了比较。其中,算法SDAoMF采用最小流量机制为服务提供网络资源。性能分析包括求解最优服务器部署方案、比较不同服务请求数量下的网络流量两个过程。其中,求解最优服务器部署方案是基于不同的服务请求到达速率,来规划存储节点和计算节点的部署数量。不同服务请求数量下的网络流量的比较是为了验证不同服务总数下,本发明算法SDAoMNRU与算法SDAoMF在网络流量消耗方面的优劣。
在求解最优的服务器部署方案时,设置最大的存储节点数量和最大的计算节点数量分别为70个和20个。实验结果如图3所示,X轴表示服务请求到达率,Y轴表示最优的服务部署数量。从图3可知,随着服务请求达到率的增加,存储节点和计算节点的数量都在增加。当服务请求到达率达到每秒20个时,存储节点和计算节点的数量都趋于稳定。
为了比较本发明算法SDAoMNRU与算法SDAoMF的网络流量。在运行算法时,两个算法采用相同的存储节点和计算节点数量进行分析。实验比较了不同服务请求到达率下,两个算法为满足服务而花费的网络流量。
实验结果如图4所示,X轴表示服务请求的数量,Y轴表示网络流量。从图4可知,随着服务请求数量的增加,两个算法的网络流量开销都在增加。相比于算法SDAoMF,本发明算法SDAoMNRU下网络流量开销增长比较平缓。说明本发明算法为服务请求提供服务时,选择了较好的计算和存储节点,从而减少了网络流量的开销。
本发明实施例提供了一种雾计算环境下服务器部署方法及装置,该方法包括:构建雾计算环境下网络资源利用率最大化模型,求解存储节点和计算节点的部署方案设计,雾计算下网络资源利用率最大化的服务器部署算法设计以及执行资源分配的步骤,解决了不同服务请求到达率环境下网络资源利用率低的问题。
本发明实施例中还提供了一种雾计算环境下服务器部署装置,如下面的实施例所述。由于该装置解决问题的原理与雾计算环境下服务器部署方法相似,因此该装置的实施可以参见雾计算环境下服务器部署方法的实施,重复之处不再赘述。参见图5所示的雾计算环境下服务器部署装置结构框图,该装置包括:
获取模块51,用于获取用户请求数据和网络拓扑数据;网络拓扑数据包括服务节点的存储空间容量信息和链路信息;第一计算模块52,用于根据用户请求数据、存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息;网络总流量函数用于描述网络中服务节点承载的网络总流量;第二计算模块53,用于根据链路信息和网络总流量函数,利用拉格朗日算子计算每个服务节点部署信息的服务节点集合;部署模块54,用于根据网络总流量函数在多个服务节点集合中确定目标服务节点集合,按照目标服务节点集合部署服务器。
在一个实施例中,第一计算模块,具体用于:获取算法参数;随机生成多个初始服务节点部署信息,将每个初始服务节点部署信息作为一个染色体;根据算法参数对染色体进行选择、交叉和变异操作,得到处理结果;根据用户请求数据和存储空间容量信息计算处理结果对应的网络总流量函数值,根据网络总流量函数值确定多个服务节点部署信息。
在一个实施例中,第一计算模块,具体用于:根据用户请求数据和存储空间容量信息确定第一约束条件;根据第一约束条件计算处理结果对应的网络总流量函数值。
在一个实施例中,第一计算模块,具体用于:按照如下公式根据第一约束条件计算处理结果对应的网络总流量函数值:
Figure BDA0002692004870000141
Figure BDA0002692004870000142
Figure BDA0002692004870000143
Figure BDA0002692004870000144
Figure BDA0002692004870000145
其中,F为网络总流量函数,G为网络总流量函数值,Ds,t表示服务节点s和用户节点t的平均跳数,ka∈KA表示内容服务请求,其容量使用
Figure BDA0002692004870000146
表示,kb∈KB表示计算服务请求,其计算量使用
Figure BDA0002692004870000147
表示,
Figure BDA0002692004870000148
表示服务节点s承载的用户t的服务k的流量,服务k包括ka和kb
Figure BDA0002692004870000151
表示用户t∈T对服务k的速率要求,
Figure BDA0002692004870000152
表示服务节点s承载的用户t的服务k的占比,
Figure BDA0002692004870000153
是二进制变量,当
Figure BDA0002692004870000154
标识服务节点s可以满足用户t的服务k。当
Figure BDA0002692004870000155
标识服务节点s不能满足用户t的服务k,Q={V,E}表示网络拓扑数据,V表示节点集合,
Figure BDA0002692004870000156
表示具有存储能力的节点,具有的存储空间容量使用
Figure BDA0002692004870000157
表示。
Figure BDA0002692004870000158
表示具有计算能力的节点,具有的计算容量使用
Figure BDA0002692004870000159
表示,
Figure BDA00026920048700001510
表示用户节点,E表示链路信息。
在一个实施例中,第二计算模块,具体用于:根据链路信息确定第二约束条件;根据第二约束条件,利用拉格朗日算子计算每个服务节点部署信息对应的第二网络总流量函数值;根据第二网络总流量函数值,确定每个服务节点部署信息对应的服务节点集合。
在一个实施例中,第二计算模块,具体用于:根据第二约束条件,利用拉格朗日算子计算每个服务节点部署信息对应的第二网络总流量函数值:
Figure BDA00026920048700001511
Figure BDA00026920048700001512
Figure BDA00026920048700001513
Figure BDA00026920048700001514
Figure BDA00026920048700001515
且xl≤cl
其中,其中,F为网络总流量函数,G为网络总流量函数值,Ds,t表示服务节点s和用户节点t的平均跳数,ka∈KA表示内容服务请求,其容量使用
Figure BDA00026920048700001516
表示,kb∈KB表示计算服务请求,其计算量使用
Figure BDA00026920048700001517
表示,
Figure BDA00026920048700001518
表示服务节点s承载的用户t的服务k的流量,服务k包括ka和kb
Figure BDA00026920048700001519
表示用户t∈T对服务k的速率要求,
Figure BDA00026920048700001520
表示服务节点s承载的用户t的服务k的占比,
Figure BDA00026920048700001521
是二进制变量,当
Figure BDA00026920048700001522
标识服务节点s可以满足用户t的服务k。当
Figure BDA00026920048700001523
标识服务节点s不能满足用户t的服务k,Q={V,E}表示网络拓扑数据,V表示节点集合,
Figure BDA00026920048700001524
表示具有存储能力的节点,具有的存储空间容量使用
Figure BDA00026920048700001525
表示。
Figure BDA00026920048700001526
表示具有计算能力的节点,具有的计算容量使用
Figure BDA00026920048700001527
表示,
Figure BDA00026920048700001528
表示用户节点,E表示链路信息,cl表示链路l的容量,rl s,t∈[0,1]表示服务节点s和用户t之间的链路l的流量占比。
本发明实施例还提供一种计算机设备,参见图6所示的计算机设备结构示意框图,该计算机设备包括存储器61、处理器62及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述任一种雾计算环境下服务器部署方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的计算机设备的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有执行上述任一种雾计算环境下服务器部署方法的计算机程序。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (14)

1.一种雾计算环境下服务器部署方法,其特征在于,包括:
获取用户请求数据和网络拓扑数据;所述网络拓扑数据包括服务节点的存储空间容量信息和链路信息;
根据所述用户请求数据、所述存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息;所述网络总流量函数用于描述网络中服务节点承载的网络总流量;
根据所述链路信息和所述网络总流量函数,利用拉格朗日算子计算每个所述服务节点部署信息的服务节点集合;
根据所述网络总流量函数在多个所述服务节点集合中确定目标服务节点集合,按照所述目标服务节点集合部署服务器。
2.根据权利要求1所述的方法,其特征在于,根据所述用户请求数据、所述存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息,包括:
获取算法参数;
随机生成多个初始服务节点部署信息,将每个所述初始服务节点部署信息作为一个染色体;
根据所述算法参数对所述染色体进行选择、交叉和变异操作,得到处理结果;
根据所述用户请求数据和所述存储空间容量信息计算所述处理结果对应的网络总流量函数值,根据所述网络总流量函数值确定多个服务节点部署信息。
3.根据权利要求2所述的方法,其特征在于,根据所述用户请求数据和所述存储空间容量信息计算所述处理结果对应的网络总流量函数值,包括:
根据所述用户请求数据和所述存储空间容量信息确定第一约束条件;
根据所述第一约束条件计算所述处理结果对应的网络总流量函数值。
4.根据权利要求3所述的方法,其特征在于,包括按照如下公式根据所述第一约束条件计算所述处理结果对应的网络总流量函数值:
Figure FDA0002692004860000011
Figure FDA0002692004860000012
Figure FDA0002692004860000021
Figure FDA0002692004860000022
Figure FDA0002692004860000023
其中,F为网络总流量函数,G为网络总流量函数值,Ds,t表示服务节点s和用户节点t的平均跳数,ka∈KA表示内容服务请求,其容量使用
Figure FDA0002692004860000024
表示,kb∈KB表示计算服务请求,其计算量使用
Figure FDA0002692004860000025
表示,
Figure FDA0002692004860000026
表示服务节点s承载的用户t的服务k的流量,服务k包括ka和kb
Figure FDA0002692004860000027
表示用户t∈T对服务k的速率要求,
Figure FDA0002692004860000028
表示服务节点s承载的用户t的服务k的占比,
Figure FDA0002692004860000029
是二进制变量,当
Figure FDA00026920048600000210
标识服务节点s可以满足用户t的服务k;当
Figure FDA00026920048600000211
标识服务节点s不能满足用户t的服务k,Q={V,E}表示网络拓扑数据,V表示节点集合,
Figure FDA00026920048600000212
表示具有存储能力的节点,具有的存储空间容量使用
Figure FDA00026920048600000213
表示;
Figure FDA00026920048600000214
表示具有计算能力的节点,具有的计算容量使用
Figure FDA00026920048600000215
表示,
Figure FDA00026920048600000216
表示用户节点,E表示链路信息。
5.根据权利要求1所述的方法,其特征在于,根据所述链路信息和所述网络总流量函数,利用拉格朗日算子计算每个所述服务节点部署信息的服务节点集合,包括:
根据所述链路信息确定第二约束条件;
根据所述第二约束条件,利用拉格朗日算子计算每个所述服务节点部署信息对应的第二网络总流量函数值;
根据所述第二网络总流量函数值,确定每个所述服务节点部署信息对应的服务节点集合。
6.根据权利要求5所述的方法,其特征在于,包括根据所述第二约束条件,利用拉格朗日算子计算每个所述服务节点部署信息对应的第二网络总流量函数值:
Figure FDA00026920048600000217
Figure FDA00026920048600000218
Figure FDA00026920048600000219
Figure FDA00026920048600000220
Figure FDA00026920048600000221
且xl≤cl
其中,其中,F为网络总流量函数,G为网络总流量函数值,Ds,t表示服务节点s和用户节点t的平均跳数,ka∈KA表示内容服务请求,其容量使用
Figure FDA0002692004860000031
表示,kb∈KB表示计算服务请求,其计算量使用
Figure FDA0002692004860000032
表示,
Figure FDA0002692004860000033
表示服务节点s承载的用户t的服务k的流量,服务k包括ka和kb
Figure FDA0002692004860000034
表示用户t∈T对服务k的速率要求,
Figure FDA0002692004860000035
表示服务节点s承载的用户t的服务k的占比,
Figure FDA0002692004860000036
是二进制变量,当
Figure FDA0002692004860000037
标识服务节点s可以满足用户t的服务k;当
Figure FDA0002692004860000038
标识服务节点s不能满足用户t的服务k,Q={V,E}表示网络拓扑数据,V表示节点集合,
Figure FDA0002692004860000039
表示具有存储能力的节点,具有的存储空间容量使用
Figure FDA00026920048600000310
表示;
Figure FDA00026920048600000311
表示具有计算能力的节点,具有的计算容量使用
Figure FDA00026920048600000312
表示,
Figure FDA00026920048600000313
表示用户节点,E表示链路信息,cl表示链路l的容量,rl s,t∈[0,1]表示服务节点s和用户t之间的链路l的流量占比。
7.一种雾计算环境下服务器部署装置,其特征在于,包括:
获取模块,用于获取用户请求数据和网络拓扑数据;所述网络拓扑数据包括服务节点的存储空间容量信息和链路信息;
第一计算模块,用于根据所述用户请求数据、所述存储空间容量信息和网络总流量函数,利用禁忌遗传搜索算法生成多个服务节点部署信息;所述网络总流量函数用于描述网络中服务节点承载的网络总流量;
第二计算模块,用于根据所述链路信息和所述网络总流量函数,利用拉格朗日算子计算每个所述服务节点部署信息的服务节点集合;
部署模块,用于根据所述网络总流量函数在多个所述服务节点集合中确定目标服务节点集合,按照所述目标服务节点集合部署服务器。
8.根据权利要求7所述的装置,其特征在于,所述第一计算模块,具体用于:
获取算法参数;
随机生成多个初始服务节点部署信息,将每个所述初始服务节点部署信息作为一个染色体;
根据所述算法参数对所述染色体进行选择、交叉和变异操作,得到处理结果;
根据所述用户请求数据和所述存储空间容量信息计算所述处理结果对应的网络总流量函数值,根据所述网络总流量函数值确定多个服务节点部署信息。
9.根据权利要求8所述的装置,其特征在于,所述第一计算模块,具体用于:
根据所述用户请求数据和所述存储空间容量信息确定第一约束条件;
根据所述第一约束条件计算所述处理结果对应的网络总流量函数值。
10.根据权利要求9所述的装置,其特征在于,所述第一计算模块,具体用于:
按照如下公式根据所述第一约束条件计算所述处理结果对应的网络总流量函数值:
Figure FDA0002692004860000041
Figure FDA0002692004860000042
Figure FDA0002692004860000043
Figure FDA0002692004860000044
Figure FDA0002692004860000045
其中,F为网络总流量函数,G为网络总流量函数值,Ds,t表示服务节点s和用户节点t的平均跳数,ka∈KA表示内容服务请求,其容量使用
Figure FDA0002692004860000046
表示,kb∈KB表示计算服务请求,其计算量使用
Figure FDA0002692004860000047
表示,
Figure FDA0002692004860000048
表示服务节点s承载的用户t的服务k的流量,服务k包括ka和kb
Figure FDA0002692004860000049
表示用户t∈T对服务k的速率要求,
Figure FDA00026920048600000410
表示服务节点s承载的用户t的服务k的占比,
Figure FDA00026920048600000411
是二进制变量,当
Figure FDA00026920048600000412
标识服务节点s可以满足用户t的服务k;当
Figure FDA00026920048600000413
标识服务节点s不能满足用户t的服务k,Q={V,E}表示网络拓扑数据,V表示节点集合,
Figure FDA00026920048600000414
表示具有存储能力的节点,具有的存储空间容量使用
Figure FDA00026920048600000415
表示;
Figure FDA00026920048600000416
表示具有计算能力的节点,具有的计算容量使用
Figure FDA00026920048600000417
表示,
Figure FDA00026920048600000418
表示用户节点,E表示链路信息。
11.根据权利要求7所述的装置,其特征在于,所述第二计算模块,具体用于:
根据所述链路信息确定第二约束条件;
根据所述第二约束条件,利用拉格朗日算子计算每个所述服务节点部署信息对应的第二网络总流量函数值;
根据所述第二网络总流量函数值,确定每个所述服务节点部署信息对应的服务节点集合。
12.根据权利要求11所述的装置,其特征在于,所述第二计算模块,具体用于:按照如下公式根据所述第二约束条件,利用拉格朗日算子计算每个所述服务节点部署信息对应的第二网络总流量函数值:
Figure FDA00026920048600000419
Figure FDA0002692004860000051
Figure FDA0002692004860000052
Figure FDA0002692004860000053
Figure FDA0002692004860000054
且xl≤cl
其中,其中,F为网络总流量函数,G为网络总流量函数值,Ds,t表示服务节点s和用户节点t的平均跳数,ka∈KA表示内容服务请求,其容量使用
Figure FDA0002692004860000055
表示,kb∈KB表示计算服务请求,其计算量使用
Figure FDA0002692004860000056
表示,
Figure FDA0002692004860000057
表示服务节点s承载的用户t的服务k的流量,服务k包括ka和kb
Figure FDA0002692004860000058
表示用户t∈T对服务k的速率要求,
Figure FDA0002692004860000059
表示服务节点s承载的用户t的服务k的占比,
Figure FDA00026920048600000510
是二进制变量,当
Figure FDA00026920048600000511
标识服务节点s可以满足用户t的服务k;当
Figure FDA00026920048600000512
标识服务节点s不能满足用户t的服务k,Q={V,E}表示网络拓扑数据,V表示节点集合,
Figure FDA00026920048600000513
表示具有存储能力的节点,具有的存储空间容量使用
Figure FDA00026920048600000514
表示;
Figure FDA00026920048600000515
表示具有计算能力的节点,具有的计算容量使用
Figure FDA00026920048600000516
表示,
Figure FDA00026920048600000517
表示用户节点,E表示链路信息,cl表示链路l的容量,rl s,t∈[0,1]表示服务节点s和用户t之间的链路l的流量占比。
13.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6任一所述方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有执行权利要求1至6任一所述方法的计算机程序。
CN202010994357.1A 2020-09-21 2020-09-21 雾计算环境下服务器部署方法及装置 Active CN112187535B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010994357.1A CN112187535B (zh) 2020-09-21 2020-09-21 雾计算环境下服务器部署方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010994357.1A CN112187535B (zh) 2020-09-21 2020-09-21 雾计算环境下服务器部署方法及装置

Publications (2)

Publication Number Publication Date
CN112187535A true CN112187535A (zh) 2021-01-05
CN112187535B CN112187535B (zh) 2023-05-09

Family

ID=73955625

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010994357.1A Active CN112187535B (zh) 2020-09-21 2020-09-21 雾计算环境下服务器部署方法及装置

Country Status (1)

Country Link
CN (1) CN112187535B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113472844A (zh) * 2021-05-26 2021-10-01 北京邮电大学 面向车联网的边缘计算服务器部署方法、装置及设备
CN114035889A (zh) * 2021-10-22 2022-02-11 广东工业大学 一种二维时间尺度的容器调度方法及系统
CN115277570A (zh) * 2022-07-26 2022-11-01 中国工商银行股份有限公司 流量分配方法、装置、计算机设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014205585A1 (en) * 2013-06-28 2014-12-31 Polyvalor, Société En Commandite Method and system for optimizing the location of data centers or points of presence and software components in cloud computing networks using a tabu search algorithm
CN107071033A (zh) * 2017-04-20 2017-08-18 济南浪潮高新科技投资发展有限公司 一种基于雾计算的车联网部署系统
US20180109428A1 (en) * 2016-10-19 2018-04-19 Tata Consultancy Services Limited Optimal deployment of fog computations in iot environments
US20180316746A1 (en) * 2010-03-01 2018-11-01 Genghiscomm Holdings, LLC Edge Server Selection for Device-Specific Network Topologies
EP3407194A2 (en) * 2018-07-19 2018-11-28 Erle Robotics, S.L. Method for the deployment of distributed fog computing and storage architectures in robotic modular components
US20190250949A1 (en) * 2018-02-14 2019-08-15 Citrix Systems, Inc. Auto-scaling for allocation of cloud service resources in application deployments

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180316746A1 (en) * 2010-03-01 2018-11-01 Genghiscomm Holdings, LLC Edge Server Selection for Device-Specific Network Topologies
WO2014205585A1 (en) * 2013-06-28 2014-12-31 Polyvalor, Société En Commandite Method and system for optimizing the location of data centers or points of presence and software components in cloud computing networks using a tabu search algorithm
US20180109428A1 (en) * 2016-10-19 2018-04-19 Tata Consultancy Services Limited Optimal deployment of fog computations in iot environments
CN107071033A (zh) * 2017-04-20 2017-08-18 济南浪潮高新科技投资发展有限公司 一种基于雾计算的车联网部署系统
US20190250949A1 (en) * 2018-02-14 2019-08-15 Citrix Systems, Inc. Auto-scaling for allocation of cloud service resources in application deployments
EP3407194A2 (en) * 2018-07-19 2018-11-28 Erle Robotics, S.L. Method for the deployment of distributed fog computing and storage architectures in robotic modular components

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JUN WU: "FCSS: Fog-Computing-based Content-Aware Filtering for Security Services in Information-Centric Social Networks", 《IEEE TRANSACTIONS ON EMERGING TOPICS IN COMPUTING》 *
徐小波: "基于遗传算法的雾计算资源调度研究", 《CNKI优秀硕士学位论文全文库-信息科技辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113472844A (zh) * 2021-05-26 2021-10-01 北京邮电大学 面向车联网的边缘计算服务器部署方法、装置及设备
CN114035889A (zh) * 2021-10-22 2022-02-11 广东工业大学 一种二维时间尺度的容器调度方法及系统
CN115277570A (zh) * 2022-07-26 2022-11-01 中国工商银行股份有限公司 流量分配方法、装置、计算机设备和存储介质
CN115277570B (zh) * 2022-07-26 2024-05-03 中国工商银行股份有限公司 流量分配方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN112187535B (zh) 2023-05-09

Similar Documents

Publication Publication Date Title
Chen et al. Energy-efficient offloading for DNN-based smart IoT systems in cloud-edge environments
CN111445111B (zh) 一种基于边缘协同的电力物联网任务分配方法
CN112187535A (zh) 雾计算环境下服务器部署方法及装置
CN109447264B (zh) 云计算环境下基于vham-r模型的虚拟机放置遗传优化方法
CN108874525A (zh) 一种面向边缘计算环境的服务请求分配方法
Navimipour et al. Replica selection in the cloud environments using an ant colony algorithm
Supreeth et al. Hybrid genetic algorithm and modified-particle swarm optimization algorithm (GA-MPSO) for predicting scheduling virtual machines in educational cloud platforms
Dai et al. A learning algorithm for real-time service in vehicular networks with mobile-edge computing
El Mensoum et al. MuSC: A multi-stage service chains embedding approach
Sadegh et al. A two-phase virtual machine placement policy for data-intensive applications in cloud
CN111199316A (zh) 一种基于执行时间评估的云雾协同计算电网调度方法
CN116708446B (zh) 基于网络性能综合权值决策的算网调度服务方法及系统
Kumar et al. QoS‐aware resource scheduling using whale optimization algorithm for microservice applications
WO2017148296A1 (zh) 一种应用归属服务集群的分配方法和装置
CN109889573B (zh) 混合云中基于ngsa多目标的副本放置方法
Wang et al. Multi-granularity decomposition for componentized multimedia applications based on graph clustering
CN115421885A (zh) 一种分布式多目标云任务的调度方法、装置及云服务系统
Lei et al. A heuristic services binding algorithm to improve fault-tolerance in microservice based edge computing architecture
Masdari et al. Energy-aware computation offloading in mobile edge computing using quantum-based arithmetic optimization algorithm
Yang et al. Resource reservation for graph-structured multimedia services in computing power network
CN109343933B (zh) 基于改进遗传算法的虚拟机初始放置策略方法
CN114039840A (zh) 软件定义网络中可配置的动态高可靠服务链架构及方法
Singh Task scheduling in parallel systems using genetic algorithm
CN111124590A (zh) 虚拟机放置方法及装置、服务器
Gonnade et al. An Efficient load balancing using Genetic algorithm in Hierarchical structured distributed system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 102209 7th floor, block C, No.18, Binhe Avenue, future science and Technology City, Changping District, Beijing

Applicant after: State Grid Power Space Technology Co.,Ltd.

Applicant after: STATE GRID CORPORATION OF CHINA

Address before: 102209 7th floor, block C, No.18, Binhe Avenue, future science and Technology City, Changping District, Beijing

Applicant before: SGCC GENERAL AVIATION Co.,Ltd.

Applicant before: STATE GRID CORPORATION OF CHINA

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant