CN115469994A - 边缘计算站点与核心数据中心之间的自动化服务分层 - Google Patents
边缘计算站点与核心数据中心之间的自动化服务分层 Download PDFInfo
- Publication number
- CN115469994A CN115469994A CN202110658172.8A CN202110658172A CN115469994A CN 115469994 A CN115469994 A CN 115469994A CN 202110658172 A CN202110658172 A CN 202110658172A CN 115469994 A CN115469994 A CN 115469994A
- Authority
- CN
- China
- Prior art keywords
- services
- edge computing
- service
- computing sites
- given
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
- G06F9/5088—Techniques for rebalancing the load in a distributed system involving task migration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5077—Logical partitioning of resources; Management or configuration of virtualized resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5044—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/502—Proximity
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种设备,包括:处理装置,所述处理装置被配置为获得与在信息技术基础设施中托管的服务相关联的信息,所述信息技术基础设施包括托管所述服务的第一子集的核心数据中心和托管所述服务的第二子集的边缘计算站点。所述处理装置还被配置为基于所获得的信息来确定与表征在所述计算站点处托管所述服务中的相应服务的适合性的参数相关联的值,并且基于所确定的值来生成所述服务中的每个服务的得分。所述处理装置还被配置为基于所生成的得分来识别所述服务中要从所述核心数据中心迁移到边缘计算装置或从所述边缘计算站点迁移到所述核心数据中心的至少一个给定服务。所述处理装置还被配置为迁移所述服务中的所述给定服务。
Description
技术领域
本领域总体上涉及信息处理,并且更具体地涉及用于管理信息处理系统的技术。
背景技术
信息处理系统越来越多地将可重新配置的虚拟资源用于以高效、灵活且具有成本效益的方式来满足不断变化的用户需求。例如,已经广泛采用了使用诸如虚拟机的虚拟资源实现的云计算和存储系统。现在在信息处理系统中广泛使用的其他虚拟资源包括Linux容器。这样的容器可用于提供给定的基于云的信息处理系统的虚拟化基础设施的至少一部分。但是,在基于云的信息处理系统中的服务管理中可能出现重大的挑战。
发明内容
本公开的说明性实施方案提供了用于边缘计算站点与核心数据中心之间的自动化服务分层的技术。
在一个实施方案中,一种设备包括至少一个处理装置,所述至少一个处理装置包括耦合到存储器的处理器。所述至少一个处理装置被配置为执行以下步骤:获得与信息技术基础设施中托管的多个服务相关联的信息,所述信息技术基础设施包括托管所述多个服务的第一子集的至少一个核心数据中心和托管所述多个服务的第二子集的一个或多个边缘计算站点。所述至少一个处理装置还被配置为执行以下步骤:至少部分地基于所获得的信息来确定与表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的两个或更多个参数相关联的值;以及至少部分地基于与表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的所述两个或更多个参数相关联的所确定的值来生成所述多个服务中的每个服务的得分。所述至少一个处理装置还被配置为执行以下步骤:至少部分地基于所生成的所述多个服务的得分来识别所述多个服务中要迁移的至少一个给定服务,其中所述多个服务中要迁移的所述给定服务包括以下中的一者:所述多个服务的所述第一子集中要从所述至少一个核心数据中心迁移到所述一个或多个边缘计算站点中的至少一个边缘计算站点的一个服务;以及所述多个服务的所述第二子集中要从所述一个或多个边缘计算站点迁移到所述至少一个核心数据中心的一个服务。所述至少一个处理装置还被配置为执行以下步骤:迁移所述多个服务中的所述给定服务。
这些和其他说明性实施方案包括但不限于方法、设备、网络、系统和处理器可读存储介质。
附图说明
图1是说明性实施方案中的被配置用于边缘计算站点与核心数据中心之间的自动化服务分层的信息处理系统的框图。
图2是说明性实施方案中的用于边缘计算站点与核心数据中心之间的自动化服务分层的示例性过程的流程图。
图3示出说明性实施方案中的跨边缘、核心和云计算站点的深度学习模型部署。
图4示出说明性实施方案中的边缘计算站点与核心数据中心之间的应用程序和服务的自动分层的示例。
图5示出说明性实施方案中的边缘计算站点与核心数据中心之间的应用程序和服务的自动化分层的过程流。
图6A和图6B示出说明性实施方案中的边缘计算站点与核心数据中心之间的应用程序和服务的自动分层之前和之后的边缘计算站点和核心数据中心。
图7和图8示出说明性实施方案中的可用于实现信息处理系统的至少一部分的处理平台的示例。
具体实施方式
本文将参考示例性信息处理系统以及相关联的计算机、服务器、存储装置和其他处理装置来描述说明性实施方案。然而,应当理解,实施方案不限于与所示的特定说明性系统和装置配置一起使用。因此,如本文所用的术语“信息处理系统”意图广泛地解释,以便涵盖例如包括云计算和存储系统的处理系统,以及包括物理和虚拟处理资源的各种组合的其他类型的处理系统。因此,信息处理系统可包括例如至少一个数据中心或其他类型的基于云的系统,其包括托管访问云资源的租户的一个或多个云。
图1示出根据说明性实施方案配置的信息处理系统100。假定信息处理系统100建立在至少一个处理平台上,并且提供边缘计算站点104-1、104-2、……、104-N(统称为边缘计算站点104)与核心数据中心106之间的服务的自动化分层的功能。如本文所用,术语“服务”意图被广义地解释为包括应用、微服务和其他类型的服务。假定边缘计算站点104中的每个边缘计算站点包括运行边缘托管服务108-1、108-2、……、108-N(统称为边缘托管服务108-E)的多个边缘装置或边缘节点(图1中未示出)。还假定核心数据中心106包括运行核心托管服务108-C的多个核心装置或核心节点(图1中未示出)。边缘托管服务108-E和核心托管服务108-C统称为服务108。
信息处理系统100包括耦合到边缘计算站点104中的每个边缘计算站点的多个客户端装置。一组客户端装置102-1-1、……、102-1-M(统称为客户端装置102-1)耦合到边缘计算站点104-1,一组客户端装置102-2-1、……、102-2-M(统称为客户端装置102-2)耦合到边缘计算站点104-2,并且一组客户端装置102-N-1、……、102-N-M(统称为客户端装置102-N)耦合到边缘计算站点104-N。客户端装置102-1、102-2、……、102-N统称为客户端装置102。应当理解,连接到边缘计算站点104中的每个边缘计算站点的客户端装置102的特定数量“M”可以是不同的。换句话说,耦合到边缘计算站点104-1的客户端装置102-1的数量M可以与耦合到边缘计算站点104-2的客户端装置102-2的数量M相同或不同。此外,特定客户端装置102可在任何给定时间仅连接或耦合到边缘计算站点104中的单个边缘计算站点,或者可在任何给定时间耦合到边缘计算站点104中的多个边缘计算站点,或者可在不同时间连接到边缘计算站点104中的不同边缘计算站点。
客户端装置102可以任意组合的形式包括例如物理计算装置,诸如物联网(IoT)装置、移动电话、膝上型计算机、平板计算机、台式计算机或企业成员利用的其他类型的装置。此类装置是在本文中更普遍地称为“处理装置”的示例。这些处理装置中的一些处理装置在本文中也普遍称为“计算机”。客户端装置102可同样或替代地包括虚拟化的计算资源,诸如虚拟机(VM)、容器等。
在一些实施方案中,客户端装置102包括与特定公司、组织或其他企业相关联的相应计算机。另外,系统100的至少一些部分在本文中也可统称为包括“企业”。如本领域技术人员将理解的,涉及各种各样不同类型和布置的处理节点的众多其他操作场景是可能的。
假定耦合客户端装置102、边缘计算站点104和核心数据中心106的网络包括诸如互联网的全球计算机网络,但是其他类型的网络可以是核心数据中心106的一部分,包括广域网(WAN)、局域网(LAN)、卫星网络、电话或有线网络、蜂窝网络、无线网络(诸如WiFi或WiMAX网络)或这些和其他类型网络的各个部分或组合。在一些实施方案中,第一类型的网络(例如,公共网络)将客户端装置102耦合到边缘计算站点104,而第二类型的网络(例如,专用网络)将边缘计算站点104耦合到核心数据中心106。
在一些实施方案中,边缘计算站点104和核心数据中心106共同提供由企业操作的信息技术(IT)基础设施的至少一部分,其中客户端装置102由企业的用户操作。因此,包括边缘计算站点104和核心数据中心106的IT基础设施可称为企业系统。如本文所用,术语“企业系统”意图被广义地解释为包括任何组的系统或其他计算装置。在一些实施方案中,企业系统包括云基础设施,所述云基础设施包括一个或多个云(例如,一个或多个公共云、一个或多个专用云、一个或多个混合云、它们的组合等)。云基础设施可托管核心数据中心106和/或边缘计算站点104的至少一部分。给定企业系统可以托管与多个企业(例如,两个或更多个不同的生意、组织或其他实体)相关联的资产。
尽管在图1中未明确示出,但是诸如键盘、显示器或其他类型的输入输出装置的一个或多个输入输出装置可用于支持到边缘计算站点104和核心数据中心106的一个或多个用户接口,以及用于支持边缘计算站点104、核心数据中心106与未明确示出的其他相关系统和装置之间的通信。
如上所述,边缘计算站点托管边缘托管服务108-E,并且核心数据中心106托管核心托管服务108-C,其中边缘托管服务108-E和核心托管服务108-C统称为服务108。客户端装置102向边缘计算站点104(例如,向边缘计算装置或其边缘节点)发送用于访问服务108的请求。如果来自客户端装置102中的一个客户端装置(例如,客户端装置102-1-1)的给定请求涉及边缘计算站点104-1处的边缘托管服务108-1中的一个边缘托管服务,则边缘计算站点104-1处的边缘计算装置或边缘节点将服务于给定请求,并且向发出请求的客户端装置102-1-1提供响应(如果适用的话)。如果给定请求涉及核心托管服务108-C中的一个核心托管服务,则边缘计算站点104-1处的边缘计算装置或边缘节点将会将给定请求转发到核心数据中心106。核心数据中心106将服务于给定请求,并且将响应(如果适用的话)提供回边缘计算站点104-1,所述边缘计算站点104-1将继而将响应提供回发出请求的客户端装置102-1-1。
服务108中的不同服务可具有不同的所需性能或其他特性。结果,基于服务108的所需性能或其他特性,将服务108中的某些服务托管在边缘计算站点104或核心数据中心106处可能更为有利。此外,服务108的所需性能或其他特性可随时间推移而改变,使得当前托管在边缘计算站点104中的一个边缘计算站点上的给定服务可更好地适合于由核心数据中心106托管,或者反之亦然。在说明性实施方案中,边缘计算装置104和核心数据中心106实现服务分层逻辑110-1、110-2、……、110-N和110-C(统称为服务分层逻辑110)的相应实例。服务分层逻辑110提供服务108在边缘计算站点104和核心数据中心106处的不同服务的动态提升,以满足服务108的所需性能或其他特征。
服务分层逻辑110被配置为获得与托管在包括边缘计算站点104和核心数据中心106的IT基础设施中的服务108相关联的信息,并且基于此类所获得的信息确定与表征在边缘计算站点104处托管服务108中的相应服务的适合性的两个或更多个参数(例如,可容忍时延、带宽要求、访问请求的数量)相关联的值。服务分层逻辑110还被配置为至少部分地基于与表征在边缘计算站点104处托管服务108中的相应服务的适合性的两个或更多个参数相关联的所确定的值来生成多个服务中的每个服务的得分。服务分层逻辑110利用此类所生成的得分来识别服务108中要(例如,从边缘计算站点104向核心数据中心106,或者反之亦然)迁移的服务,并且然后迁移此类服务108。服务分层逻辑110可(例如,基于与包括边缘计算站点104和核心数据中心106的IT基础设施中的服务108的操作相关联的更新信息)针对多个服务重定位周期中的每个服务重定位周期执行以上功能。
在一些实施方案中,可将与服务108相关联的信息(例如,状态信息、从状态信息得出或以其他方式基于状态信息确定的参数)存储在数据库或其他数据存储装置中。可使用作为客户端装置102、边缘计算站点104、核心数据中心106中的一者或多者的一部分或以其他方式与之相关联的存储系统中的一个或多个存储系统来实现数据库或其他数据存储装置。存储系统可包括横向扩展全闪存内容可寻址存储阵列或其他类型的存储阵列。因此,如本文所用的术语“存储系统”意图被广义地解释为并且不应被视为限于内容可寻址存储系统或基于闪存的存储系统。作为本文广泛使用的术语的给定存储系统可包括例如网络附接存储装置(NAS)、存储区域网络(SAN)、直接附接存储装置(DAS)和分布式DAS以及这些和其他存储类型的组合(包括软件限定的存储装置)。可在说明性实施方案中用于实现存储系统的其他特定类型的存储产品包括全闪存和混合闪存存储阵列、软件限定的存储产品、云存储产品、基于对象的存储产品以及横向扩展NAS集群。在说明性实施方案中,这些和其他存储产品中的多个存储产品的组合也可用于实现给定存储系统。
尽管在此实施方案中被示为边缘计算站点104和核心数据中心106的元素,但是在其他实施方案中的服务分层逻辑110可至少部分地在边缘计算站点104和核心数据中心106的外部实现为例如独立的服务器、服务器组或通过一个或多个网络耦合到边缘计算站点104和/或核心数据中心106的其他类型的系统。在一些实施方案中,服务分层逻辑110可至少部分地在客户端装置102中的一个或多个客户端装置内实现。
假定使用至少一个处理装置来实现图1实施方案中的边缘计算站点104和核心数据中心106。每个此类处理装置通常包括至少一个处理器和相关联的存储器,并且实现服务分层逻辑110的功能的至少一部分。
应当理解,仅通过示例的方式呈现图1实施方案所示的客户端装置102、边缘计算站点104、核心数据中心106、服务108和服务分层逻辑110的特别布置,并且在其他实施方案中可使用替代的布置。如上所述,例如,服务分层逻辑110可在边缘计算站点104和核心数据中心106中的一者或两者的外部实现。服务分层逻辑110的至少一些部分可至少部分地以存储在存储器中并由处理器执行的软件的形式来实现。
应当理解,仅通过说明性示例的方式呈现图1所示的用于边缘计算站点104与核心数据中心106之间的自动化服务分层的特定元件组,并且在其他实施方案中,可使用另外的或替代的元件。因此,另一个实施方案可包括另外的或替代的系统、装置和其他网络实体以及模块和其他部件的不同布置。
如将在上面和下面更详细地描述的,客户端装置102、边缘计算站点104、核心数据中心106和系统100的其他部分可以是云基础设施的一部分。
假定使用包括各自具有耦合到存储器的处理器的一个或多个处理装置的至少一个处理平台来实现图1实施方案中的客户端装置102、边缘计算站点104、核心数据中心106和信息处理系统100的其他部件。此类处理装置可说明性地包括计算、存储和网络资源的特定布置。
客户端装置102、边缘计算站点104和核心数据中心106或其部件可在相应的不同处理平台上实现,但是许多其他布置是可能的。例如,在一些实施方案中,边缘计算站点104和核心数据中心106的至少一些部分在相同处理平台上实现。客户端装置102中的一者或多者可因此至少部分地在实现边缘计算站点104和/或核心数据中心106的至少一部分的至少一个处理平台内实现。
如本文所用的术语“处理平台”意图被广义地解释,以便包括例如但不限于被配置为通过一种或多种网络进行通信的多组处理装置和相关联的存储系统。例如,系统100的分布式实现方式是可能的,其中系统的某些部件驻留在处于第一地理位置的一个数据中心中,而系统的其他部件驻留在处于可能远离第一地理位置的一个或多个其他地理位置的一个或多个其他数据中心中。因此,在系统100的一些实现方式中,客户端装置102、边缘计算站点104和核心数据中心106或其部分或部件可能驻留在不同的数据中心中。许多其他分布式实现方式是可能的。
下面将结合图7和图8更详细地描述在说明性实施方案中用于实现客户端装置102、边缘计算站点104和核心数据中心106和系统100的其他部件的处理平台的另外的示例。
应当理解,仅通过示例的方式呈现说明性实施方案的这些和其他特征,并且不应以任何方式将其解释为限制性的。
现在将参考图2的流程图更详细地描述用于边缘计算站点与核心数据中心之间的自动化服务分层的示例性过程。应当理解,此特定过程仅是示例,并且在其他实施方案中可使用用于边缘计算站点与核心数据中心之间的自动化服务分层的另外的或替代的过程。
在此实施方案中,所述过程包括步骤200至208。假定由利用服务分层逻辑110的边缘计算站点104和核心数据中心106执行这些步骤。所述过程开始于步骤200,获得与信息技术基础设施中托管的多个服务相关联的信息,所述信息技术基础设施包括托管多个服务的第一子集(例如,核心托管服务108-C)的至少一个核心数据中心(例如,核心数据中心106)和托管多个服务的第二子集(例如,边缘托管服务108-1、108-2、……、108-N)的一个或多个边缘计算站点(例如,边缘计算站点104)。至少一个核心数据中心可在地理上远离一个或多个边缘计算站点。
在步骤202中,至少部分地基于所获得的信息来确定与表征在一个或多个边缘计算站点处托管多个服务中的相应服务的适合性的两个或更多个参数相关联的值。表征在一个或多个边缘计算站点处托管多个服务中的相应服务的适合性的两个或更多个参数可包括:表征多个服务中的相应服务的可容忍时延的至少一个参数;表征多个服务中的相应服务的带宽要求的至少一个参数;以及表征多个服务中的相应服务的访问请求的数量的至少一个参数。
在步骤204中,至少部分地基于与表征在一个或多个边缘计算站点处托管多个服务中的相应服务的适合性的两个或更多个参数相关联的所确定的值来生成多个服务中的每个服务的得分。步骤204可包括标准化两个或更多个参数中的每个参数的值,其中标准化两个或更多个参数中的每个参数的值可包括将参数的值归一化到某个指定范围。步骤204还可包括计算两个或更多个参数中的每个参数的权重,其可利用熵权法(EWM)。步骤204可还包括作为多个服务的两个或更多个参数的标准化值的加权组合生成得分。
在步骤206中,至少部分地基于所生成的多个服务的得分来识别多个服务中要迁移的至少一个给定服务。多个服务中要迁移的给定服务包括以下中的一者:多个服务的第一子集中要从至少一个核心数据中心迁移到一个或多个边缘计算站点中的至少一个边缘计算站点的一个服务;以及多个服务的第二子集中要从一个或多个边缘计算站点迁移到至少一个核心数据中心的一个服务。步骤206可包括:确定一个或多个边缘计算站点处的可用资源;以及至少部分地基于所确定的可用资源来识别可同时在一个或多个边缘计算站点处托管的多个服务的最大数量。步骤206可还包括:确定在第一服务重定位周期中接收访问请求的多个服务的总数量是否小于或等于可同时在一个或多个边缘计算站点处托管的多个服务的最大数量;对于第一服务重定位周期之后的第二服务重定位周期,响应于确定在第一服务重定位周期中接收访问请求的多个服务的总数量小于或等于可同时在一个或多个边缘计算站点处托管的多个服务的最大数量,在一个或多个边缘计算站点处托管所有多个服务;以及对于第二服务重定位周期,响应于确定在第一服务重定位周期中接收访问请求的多个服务的总数量大于可同时在一个或多个边缘计算站点处托管的多个服务的最大数量,在一个或多个边缘计算站点处托管多个服务的所选择子集。
在步骤208中迁移多个服务中的给定服务。一个或多个边缘计算站点中的至少一个边缘计算站点可存储用于多个服务中的给定服务的图像,用于多个服务中的给定服务的所述图像包括虚拟机图像和软件容器图像中的至少一者。步骤208可包括:通过利用由一个或多个边缘计算站点中的所述至少一个边缘计算站点存储的图像实例化虚拟机实例和软件容器实例中的至少一者来将多个服务中的给定服务从至少一个数据中心迁移到一个或多个边缘计算站点中的所述至少一个边缘计算站点。因此,在一些实施方案中,将服务从核心数据中心迁移到边缘计算站点(或者反之亦然)不会招致任何显著的性能损失,因为用于服务的虚拟机图像或软件容器图像可存储在核心数据中心和边缘计算站点两者处,使得迁移服务仅需要激活或实例化虚拟机实例或软件容器实例中的此类图像。
如上所述,在一些实施方案中,自动分层机制用于在边缘站点与核心数据中心之间移动服务。自动分层机制说明性地实现具有某些特性或要求(例如,低时延、频繁的请求等)的服务到边缘站点的动态提升,并且实现具有其他特性或要求的服务(例如,对延迟不敏感的服务等)到核心数据中心的动态提升。
图3示出跨三个阶段(即边缘阶段301、核心阶段303和云阶段305)的端到端深度学习模型部署的架构300。深度学习模型或引擎可用于各种任务,包括但不限于欺诈检测、改善客户关系、优化供应链等。深度学习模型的性能和准确性可通过增加所利用的神经网络的大小和复杂性以及通过增加用于训练深度学习模型的数据的数量和质量来显著提高。图3所示的架构300可有利地提供跨环境(例如,边缘阶段301中的边缘装置、核心阶段303中的核心数据中心和云阶段305中的云计算环境)部署的灵活性。
在边缘阶段301处,执行数据获取310。数据获取310包括从应用程序315收集数据以及边缘级人工智能(AI)任务。数据获取310可包括捕获来自应用程序315的数据流。
在核心阶段303处,执行数据准备330-1、训练330-2和部署330-3。数据准备330-1包括在训练330-2之前清洗或以其他方式准备数据所需的各种预处理任务,诸如聚合、归一化等。此类预处理任务可在统一数据湖331中执行或使用统一数据湖331执行。统一数据湖331可以是云实现的,或者可使用核心数据中心内的本地存储系统。在一些实施方案中,统一数据湖331包括文件存储或对象存储。训练330-2包括深度学习模型的探索和训练。为此,可以规则间隔将数据从统一数据湖331复制到训练群集中,以形成训练数据集合332-1,然后对其进行测试332-2或验证。执行测试332-2的服务器可将图形处理单元(GPU)用于并行化计算。部署330-3包括将(在训练330-2期间经训练和测试的)深度学习模型部署到生产中。经训练和测试的深度学习模型可另外或替代地馈送回统一数据湖331以进行(例如,输入权重等的)调整。在一些实施方案中,经训练和测试的深度学习模型可部署到(例如,用于IoT应用程序的)边缘装置。
在云阶段305处,执行分析和分层350。各种云服务提供商(CSP)355-1、……、355-P(统称为CSP 355)可实现云,在所述云上运行各种基于云的工具以执行基于云的AI任务(例如,包括利用GPU实例的基于云的AI任务)。CSP还可实现提供数据分层功能的云。因此,CSP355可进行另外的分析和开发工作。此外,可将冷数据归档到CSP 355的专用云和公共云中的基于云的存储装置。
边缘计算包括在网络边缘处提供应用程序315或其他服务(例如,包括包括应用程序315的IT服务环境)。边缘站点通常具有一些能力,诸如应用程序集成和用于处理具有严格低时延要求的应用程序(例如,自动驾驶应用程序、增强现实(AR)、虚拟现实(VR)、语音等)的方法。边缘计算的目的是将计算朝向网络的边缘(例如,边缘阶段301处的边缘装置)移动远离数据中心(例如,核心阶段303处的核心数据中心)。这有利地使计算和数据存储更靠近正在收集数据的客户端装置,而不是依赖于可以相距很远(例如数千英里远)的中心位置(例如,核心数据中心)。因此,边缘计算提供了各种益处,诸如减少时延和减轻带宽限制。减少时延包括向最终用户提供比其在更远处(例如,在核心数据中心处而不是在边缘装置处)执行计算时的时延低的时延。许多任务可能需要低时延,包括但不限于自动驾驶、AR/VR、语音、游戏等。将工作负荷更加移动靠近最终用户或数据收集点的能力也降低了边缘站点处的有限带宽的影响。在给定应用程序或其他服务需要传输大量数据进行处理的情况下,这是特别有用的。通过在边缘站点处的边缘装置或节点上运行给定应用程序或其他服务,可通过避免传输需要传输到核心数据中心的数据或减少所述数据的量来实现显著带宽节省。这提供了各种成本节省(例如,就通过边缘站点与核心数据中心之间的长距离传输数据所需的带宽或其他网络资源而言)。
在边缘站点处,可存在许多不同类型的边缘装置或节点以及通常随时间推移而改变的许多不同类型的边缘装置服务请求模式。边缘站点中的资源通常由许多用户以及许多应用程序或其他服务共享。边缘站点也可能是资源受约束的。边缘站点与核心数据中心协同工作。为了充分利用边缘站点处可用的资源的优势,需要用于将具有某些指定特性的应用程序或其他服务(例如,频繁请求、要求低时延、将受益于减少带宽成本等的应用程序和其他服务)动态提升到边缘站点的技术。此外,需要用于将具有其他指定特性的应用程序或其他服务(例如,对时间不敏感的应用程序或其他服务、需要大量计算和/或存储资源的应用程序或其他服务等)动态提升到核心数据中心的技术。
在一些实施方案中,多个特性或参数(也称为标准或因素)被组合并用于确定将哪些应用程序或其他服务提升到边缘站点或核心数据中心。此类特性或参数包括:可容忍时延;所要求的带宽;以及请求频率。要求较低时延的应用程序和其他服务受益于提升到边缘站点,所述提升避免了必须通过潜在的长距离将数据传输到核心数据中心,所述传输可引入时延。以高带宽成本运行的应用程序和其他服务将类似地受益于提升到边缘站点,以减少网络中的数据传输。具有频繁访问请求或预计在不久的将来有大量访问请求的应用程序和其他服务也将受益于提升到边缘站点,从而提高许多边缘装置服务质量。在边缘站点和核心数据中心处监测与应用程序和其他服务相关联的这些以及潜在的其他特性和参数,以实现核心数据中心与边缘站点之间的适当的应用程序和其他服务的自动分层。例如,一些实施方案可运行算法,所述算法基于根据可容忍时延、带宽要求和请求频率的上述特性分配给每个应用程序或服务的得分来将应用程序和其他服务从边缘站点提升或以其他方式迁移到核心数据中心,并且反之亦然。
图4示出包括边缘装置410(例如,用于风电场、旅行、AR/VR、汽车等)的边缘站点401与核心数据中心403之间的应用程序和服务的动态提升的示例。在每次迭代中,可以将一个或多个应用程序或其他服务从边缘站点401迁移到核心数据中心403,并且反之亦然。如图4所示,应用程序和服务415-1中的一个应用程序和服务从边缘站点401迁移到核心数据中心403,而应用程序和服务415-2中的一个应用程序和服务从核心数据中心403迁移到边缘站点401。
现在将描述边缘站点与核心数据中心之间的应用程序和其他服务的自动分层的详细算法。C表示应用程序或其他服务重定位周期。Ai表示向边缘计算站点发送访问请求的特定应用程序或其他服务,其中i≤N,其中N表示向边缘计算站点发送请求的应用程序或服务的总数量。K表示边缘站点可处理的应用程序和服务的最大数量。Li表示应用程序或其他服务Ai的可容忍时延,Bi表示应用程序或其他服务Ai的带宽要求(也称为带宽减少值),并且ni表示应用程序或其他服务Ai的请求数量。ni也可称为应用程序或其他服务Ai的“热门”级别。
时延参数的标准化表示为:
这是反向指示符,其中应将其可容忍时延值较低的应用程序或其他服务Ai提升到边缘站点,其中i≤N并且0≤RLi≤1。
带宽要求参数的标准化表示为:
这是正向指示符,其中应将其带宽要求值较高的应用程序或其他服务Ai提升到边缘站点,因为它可更受益于带宽减少,其中i≤N并且0≤RLi≤1。
访问频率参数的标准化表示为:
这也是正向指示符,其中应将其访问频率值较高的应用程序或其他服务Ai提升到边缘站点,其中i≤N并且0≤Rni≤1。
参数j(j∈(L,B,n))在所有参数中的比率表示为:
参数j(j∈(L,B,n))的熵表示为:
熵是信息理论的概念,并且测量参数的不确定性。具有较大熵值的参数j具有较大的不确定性。如果不确定性较大,则参数j的当前信息较小,0≤ej≤1。
参数L、B、n的权重可根据下式计算:
上式使用了熵权法(EWM),其中具有较小熵值的参数j意指参数对综合评估具有较高的影响,并且因此其应具有高权重。
应用程序或其他服务Ai的综合评估表示为:
Si=sum(wj·Rji)=wL·RLi+wB·RBi+wn·Rni
如本文所示,应用程序或其他服务Ai的综合评估或得分Si可计算为时延、带宽减少和访问请求频率参数的值的加权和。
在边缘到核心到云的架构中(例如,诸如以上在图3的上下文中所描述的那样),边缘装置向边缘站点和核心数据中心请求服务。假定边缘站点中的边缘装置请求总共N个应用程序或其他服务。对于每个应用程序或服务Ai,评估多个标准或参数,以确定该应用程序或服务Ai更适合于边缘站点还是核心数据中心。一些实施方案中的这些参数包括:(1)Ai的可容忍时延(例如,其可基于通过或使用Ai执行的业务或其他任务的类型),其中Ai的可容忍时延值表示为Li;(2)在边缘站点上运行的Ai的带宽减少或带宽要求,其中Ai的带宽减少值表示为Bi;以及(3)Ai的请求数量或访问频率(也称为具体应用程序或服务Ai的热门级别),其中Ai的访问频率值表示为ni。
组合这些参数(例如,诸如使用每个参数的值的加权和),对应用程序或服务Ai进行评分,以判断在边缘站点中运行Ai的适合性。在一些实施方案中,利用EWM来计算每个参数的权重。EWM提供了一种加权方法,所述方法测量决策中的值分散。分散程度越大,区分程度越大,并且可得出的信息越多并且应赋予参数的权重越高。
现在将关于图5描述边缘计算站点与核心数据中心之间的应用程序和服务的自动化分层的过程流。在步骤501中,收集应用程序和其他服务的状态。可有规律地(例如,周期性地,应用户请求等)执行步骤501。步骤501包括收集与每个应用程序或服务Ai相关联的信息,其中所收集的应用程序或服务Ai的信息包括可容忍时延参数值Li、带宽减少参数值Bi、请求数量参数值ni、向边缘站点装置发送请求的应用程序和服务的总数量N,其中边缘站点可处理的应用程序和服务的最大数量为K。在步骤503中,确定是否已达到应用程序和服务重定位周期C。如果步骤503确定的结果为否,则图5过程流返回到步骤501。如果步骤503确定的结果为是,则图5过程流前进到步骤505。
在步骤505中,确定是否K<N。如果K≥N,则边缘站点可处理向其负责的边缘站点装置发送请求的所有应用程序和服务。这种情况在不存在许多活动的边缘装置以及相关联的应用程序和服务时可能发生。在这种场景中,所有应用程序和服务都可提升到边缘站点(例如,无需选择K个应用程序和服务,因为K在这种场景中小于或等于N),并且图5过程流前进到步骤513。如果K<N,则边缘站点资源无法处理向边缘站点装置发送请求的所有应用程序和服务。因此,需要选择应提升到边缘站点的前K个应用程序。这种场景在边缘装置正在增加并且处于活动状态时可能很常见,并且致使图5过程流前进到步骤507。
在步骤507中,标准化(例如,从针对当前重定位周期C从步骤501收集的状态信息得出的)参数值。对于每个参数,测量单位可能会有所不同,并且因此需要标准化参数,以消除具有不同测量单位的影响。此标准化可包括归一化到某个指定范围(例如,介于0与1之间)。以下等式可用于标准化可容许的时延Li、带宽减少Bi和请求数量ni参数:
RLi是可容忍时延参数Li的反向指示符,因为具有较低可容忍时延参数值的应用程序和服务更适合于提升到边缘站点。RBi和Rni分别是带宽减少参数Bi和访问请求参数ni的正向指示符,其中具有较高带宽减少和访问请求数量参数的应用程序和服务更适合于提升到边缘站点。对于可容忍时延参数Li、带宽减少参数Bi和访问请求参数ni中的每一者,所有应用程序和服务的集合为L、B和n。
在步骤509中,计算不同参数的权重。在一些实施方案中,利用EWM来计算可容忍时延参数Li、带宽减少参数Bi和访问请求参数ni的权重。每个参数的比率可根据下式计算:
每个参数的熵可根据下式计算:
每个参数的权重可使用EWM根据下式计算:
在步骤511中,基于标准化参数值的加权组合来生成每个应用程序或服务的得分。应用程序或服务Ai的得分表示为Si,并且可根据下式计算:
Si=sum(wj·Rji)=wL·RLi+wB·RBi+wn·Rni,(i=1,…,N)
在步骤513中,将前K个应用程序或服务提升到边缘站点。前K个应用程序和服务可以是具有步骤511的K个最高得分的那些应用程序和服务。所有应用程序和服务的得分集合可表示为S=[S1,S2,…,SN]。S可按反向次序(例如,从高值到低值)排序:
S=排序(S,降序)
通过采用经排序的S中的前K个得分来确定最适合于提升到边缘站点的前K个应用程序和服务(例如,将最受益于提升到边缘站点的前K个应用程序和服务)。将其他应用程序和服务提升到核心数据中心。图5过程然后可返回到步骤501以等待下一个应用程序和服务重定位周期。
图6A和图6B示出给定重定位周期的包括边缘装置610(例如,用于风电场、旅行、AR/VR、汽车等)的边缘站点601与核心数据中心603之间的应用程序和服务的动态提升。图6A示出重定位之前的环境,其中边缘站点601处的应用程序和服务615-1中的一些应用程序和服务被认为更适合于在核心数据中心603中运行,并且其中核心数据中心处的应用程序服务615-2中的一些应用程序服务被认为更适合于在边缘站点601中运行。可使用用图5过程流为不同的应用程序和服务615-1和615-2生成的得分来确定不同的应用程序和服务的适合性(例如,它们是否更适合于在边缘站点601或核心数据中心603处运行)。图6B示出重定位之后的环境,其中边缘站点601处的应用程序和服务615-1'包括更适合于在边缘站点601处运行的那些应用程序和服务,并且核心数据中心603处的应用程序和服务615-2'包括更适合于在核心数据中心603处运行的那些应用程序和服务。尽管在此实施方案中边缘站点601具有运行所有被认为更适合于在边缘站点601处运行的应用程序和服务的能力(例如,其中K<N的示例),但这不是必需的。在其他实施方案中(例如,其中K≥N),仅被认为更适合于在边缘站点601处运行的一些应用程序和服务可提升到边缘站点601(例如,具有前K个得分的那些应用程序服务)。
应当理解,上文和本文其他地方描述的特定优点与特定说明性实施方案相关联,并且不需要在其他实施方案中存在。而且,如在附图中示出并且如上所述的特定类型的信息处理系统特征和功能性仅是示例性的,并且在其他实施方案中可使用众多其他布置。
现在将参考图7和图8更详细地描述用于实现边缘计算站点与核心数据中心之间的自动化服务分层的功能性的处理平台的说明性实施方案。尽管在系统100的上下文中进行了描述,但是在其他实施方案中,这些平台也可用于实现其他信息处理系统的至少一些部分。
图7示出包括云基础设施700的示例性处理平台。云基础设施700包括物理和虚拟处理资源的组合,其可用于实现图1中的信息处理系统100的至少一部分。云基础设施700包括使用虚拟化基础设施704实现的多个虚拟机(VM)和/或容器集合702-1、702-2、......、702-L。虚拟化基础设施704在物理基础设施705上运行,并且说明性地包括一个或多个管理程序和/或操作系统级虚拟化基础设施。操作系统级虚拟化基础设施说明性地包括Linux操作系统或其他类型的操作系统的内核控制组。
云基础设施700进一步包括在虚拟化基础设施704的控制下在VM/容器集合702-1、702-2、......、702-L中的相应VM/容器集合上运行的应用程序集合710-1、710-2、......、710-L。VM/容器集合702可包括相应的VM、一个或多个容器的相应集合,或在VM中运行的一个或多个容器的相应集合。
在图7的一些实现方式中,VM/容器集合702包括使用包括至少一个管理程序的虚拟化基础设施704实现的相应VM。管理程序平台可用于在虚拟化基础设施704内实现管理程序,其中所述管理程序平台具有相关联的虚拟基础设施管理系统。底层物理机可包括一个或多个分布式处理平台,所述分布式处理平台包括一个或多个存储系统。
在图7实施方案的其他实现方式中,VM/容器集合702包括使用提供操作系统级虚拟化功能性(诸如对在裸机主机上运行的Docker容器或在VM上运行的Docker容器的支持)的虚拟化基础设施704实现的相应容器。容器说明性地使用操作系统的相应内核控制组来实现。
从上面显而易见的是,系统100的处理模块或其他部件中的一者或多者可各自在计算机、服务器、存储装置或其他处理平台元件上运行。给定此类元件可被视为在本文中更一般地被称为“处理装置”的内容的示例。图7所示的云基础设施700可表示一个处理平台的至少一部分。此处理平台的另一个示例是图8所示的处理平台800。
在此实施方案中,处理平台800包括系统100的一部分,并且包括被表示为802-1、802-2、802-3、......、802-K的多个处理装置,所述多个处理装置通过网络804彼此通信。
网络804可包括任何类型的网络,通过示例的方式包括全球计算机网络(诸如互联网)、WAN、LAN、卫星网络、电话或有线网络、蜂窝网络、无线网络(诸如WiFi或WiMAX网络),或这些和其他类型网络的各个部分或组合。
处理平台800中的处理装置802-1包括耦合到存储器812的处理器810。
处理器810可包括微处理器、微控制器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、中央处理单元(CPU)、图形处理单元(GPU)、张量处理单元(TPU)、视频处理单元(VPU)或其他类型的处理电路,以及此类电路元件的部分或组合。
存储器812可以任何组合形式包括随机存取存储器(RAM)、只读存储器(ROM)、快闪存储器或其他类型的存储器。本文公开的存储器812和其他存储器应当被视为更一般地被称为存储一个或多个软件程序的可执行程序代码的“处理器可读存储介质”的内容的说明性示例。
包括此类处理器可读存储介质的制品被认为是说明性实施方案。给定此类制品可包括例如存储阵列、存储磁盘或包含RAM、ROM、快闪存储器或其他电子存储器的集成电路,或各种其他类型的计算机程序产品中的任何一种。如本文所用的术语“制品”应被理解为排除瞬时的传播信号。可使用包括处理器可读存储介质的许多其他类型的计算机程序产品。
处理装置802-1中还包括网络接口电路814,其用于将处理装置与网络804和其他系统部件对接,并且可包括常规收发器。
假定处理平台800的其他处理装置802以与针对图中的处理装置802-1所示的方式类似的方式进行配置。
而且,仅通过示例的方式呈现图中所示的特定处理平台800,并且系统100可包括另外的或替代的处理平台,以及呈任何组合的许多不同的处理平台,其中每个此类平台包括一个或多个计算机、服务器、存储装置或其他处理装置。
例如,用于实现说明性实施方案的其他处理平台可包括融合基础设施。
因此,应当理解,在其他实施方案中,可使用另外的或替代的元件的不同布置。这些元件的至少一个子集可在公共处理平台上共同实现,或者每个此类元件可在单独的处理平台上实现。
如前文所指示,如本文所公开的信息处理系统的部件可至少部分地以存储在存储器中并由处理装置的处理器执行的一个或多个软件程序的形式来实现。例如,以在一个或多个处理装置上运行的软件的形式说明性地实现了如本文所公开的用于边缘计算站点与核心数据中心之间的自动化服务分层的功能性的至少一些部分。
应再次强调,上述实施方案仅出于说明目的而呈现。可使用许多变型和其他替代的实施方案。例如,所公开的技术可适用于多种其他类型的信息处理系统、服务、参数等。而且,在附图中说明性地示出的系统和装置元件的特定配置以及相关联的处理操作在其他实施方案中可能改变。此外,以上在描述说明性实施方案的过程中做出的各种假定也应被视为示例性的,而不是对本公开的要求或限制。所附权利要求的范围内的众多其他替代实施方案对于本领域技术人员将是显而易见的。
Claims (20)
1.一种设备,其包括:
至少一个处理装置,所述至少一个处理装置包括耦合到存储器的处理器;
所述至少一个处理装置被配置为执行以下步骤:
获得与信息技术基础设施中托管的多个服务相关联的信息,所述信息技术基础设施包括托管所述多个服务的第一子集的至少一个核心数据中心和托管所述多个服务的第二子集的一个或多个边缘计算站点;
至少部分地基于所获得的信息来确定与表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的两个或更多个参数相关联的值;
至少部分地基于与表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的所述两个或更多个参数相关联的所确定的值来生成所述多个服务中的每个服务的得分;
至少部分地基于所生成的所述多个服务的得分来识别所述多个服务中要迁移的至少一个给定服务,其中所述多个服务中要迁移的所述给定服务包括以下中的一者:所述多个服务的所述第一子集中要从所述至少一个核心数据中心迁移到所述一个或多个边缘计算站点中的至少一个边缘计算站点的一个服务;以及所述多个服务的所述第二子集中要从所述一个或多个边缘计算站点迁移到所述至少一个核心数据中心的一个服务;以及
迁移所述多个服务中的所述给定服务。
2.如权利要求1所述的设备,其中表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的所述两个或更多个参数包括表征所述多个服务中的相应服务的可容忍时延的至少一个参数。
3.如权利要求1所述的设备,其中表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的所述两个或更多个参数包括表征所述多个服务中的相应服务的带宽要求的至少一个参数。
4.如权利要求1所述的设备,其中表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的所述两个或更多个参数包括表征所述多个服务中的相应服务的访问请求的数量的至少一个参数。
5.如权利要求1所述的设备,其中识别所述多个服务中要迁移的所述给定服务包括:
确定所述一个或多个边缘计算站点处的可用资源;以及
至少部分地基于所确定的可用资源来识别能够同时在所述一个或多个边缘计算站点处托管的所述多个服务的最大数量。
6.如权利要求5所述的设备,其中识别所述多个服务中要迁移的所述给定服务还包括:
确定在第一服务重定位周期中接收访问请求的所述多个服务的总数量是否小于或等于能够同时在所述一个或多个边缘计算站点处托管的所述多个服务的所述最大数量;
对于所述第一服务重定位周期之后的第二服务重定位周期,响应于确定在所述第一服务重定位周期中接收访问请求的所述多个服务的所述总数量小于或等于能够同时在所述一个或多个边缘计算站点处托管的所述多个服务的所述最大数量,在所述一个或多个边缘计算站点处托管所有所述多个服务;以及
对于所述第二服务重定位周期,响应于确定在所述第一服务重定位周期中接收访问请求的所述多个服务的所述总数量大于能够同时在所述一个或多个边缘计算站点处托管的所述多个服务的所述最大数量,在所述一个或多个边缘计算站点处托管所述多个服务的所选择子集。
7.如权利要求1所述的设备,其中生成所述多个服务中的每个服务的所述得分包括:标准化所述两个或更多个参数中的每个参数的值。
8.如权利要求7所述的设备,其中标准化所述两个或更多个参数中的每个参数的所述值包括:对于所述两个或更多个参数中的给定参数,将所述给定参数的值归一化到指定值范围。
9.如权利要求7所述的设备,其中生成所述多个服务中的每个服务的所述得分还包括:计算所述两个或更多个参数中的每个参数的权重。
10.如权利要求9所述的设备,其中计算所述两个或更多个参数中的每个参数的所述权重包括:利用熵权法。
11.如权利要求9所述的设备,其中生成所述多个服务中的每个服务的所述得分包括:对于所述多个服务中的所述给定服务,作为所述多个服务中的所述给定服务的两个或更多个参数的标准化值的加权组合生成给定得分。
12.如权利要求1所述的设备,其中所述至少一个核心数据中心在地理上远离所述一个或多个边缘计算站点。
13.如权利要求1所述的设备,其中所述一个或多个边缘计算站点中的至少一个边缘计算站点存储用于所述多个服务中的所述给定服务的图像,用于所述多个服务中的所述给定服务的所述图像包括虚拟机图像和软件容器图像中的至少一者。
14.如权利要求13所述的设备,其中迁移所述多个服务中的所述给定服务包括:通过利用由所述一个或多个边缘计算站点中的所述至少一个边缘计算站点存储的所述图像实例化虚拟机实例和软件容器实例中的至少一者来将所述多个服务中的所述给定服务从所述至少一个数据中心迁移到所述一个或多个边缘计算站点中的所述至少一个边缘计算站点。
15.一种计算机程序产品,其包括非暂时性处理器可读存储介质,所述非暂时性处理器可读存储介质在其中存储有一个或多个软件程序的程序代码,其中所述程序代码在由至少一个处理装置执行时致使所述至少一个处理装置执行以下步骤:
获得与信息技术基础设施中托管的多个服务相关联的信息,所述信息技术基础设施包括托管所述多个服务的第一子集的至少一个核心数据中心和托管所述多个服务的第二子集的一个或多个边缘计算站点;
至少部分地基于所获得的信息来确定与表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的两个或更多个参数相关联的值;
至少部分地基于与表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的所述两个或更多个参数相关联的所确定的值来生成所述多个服务中的每个服务的得分;
至少部分地基于所生成的所述多个服务的得分来识别所述多个服务中要迁移的至少一个给定服务,其中所述多个服务中要迁移的所述给定服务包括以下中的一者:所述多个服务的所述第一子集中要从所述至少一个核心数据中心迁移到所述一个或多个边缘计算站点中的至少一个边缘计算站点的一个服务;以及所述多个服务的所述第二子集中要从所述一个或多个边缘计算站点迁移到所述至少一个核心数据中心的一个服务;以及
迁移所述多个服务中的所述给定服务。
16.如权利要求15所述的计算机程序产品,其中表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的所述两个或更多个参数包括以下中的至少两者:
表征所述多个服务中的相应服务的可容忍时延的至少一个参数;
表征所述多个服务中的相应服务的带宽要求的至少一个参数;以及
表征所述多个服务中的相应服务的访问请求的数量的至少一个参数。
17.如权利要求15所述的计算机程序产品,其中所述一个或多个边缘计算站点中的至少一个边缘计算站点存储用于所述多个服务中的所述给定服务的图像,用于所述多个服务中的所述给定服务的所述图像包括虚拟机图像和软件容器图像中的至少一者,并且其中迁移所述多个服务中的所述给定服务包括:通过利用由所述一个或多个边缘计算站点中的所述至少一个边缘计算站点存储的所述图像实例化虚拟机实例和软件容器实例中的至少一者来将所述多个服务中的所述给定服务从所述至少一个数据中心迁移到所述一个或多个边缘计算站点中的所述至少一个边缘计算站点。
18.一种方法,其包括:
获得与信息技术基础设施中托管的多个服务相关联的信息,所述信息技术基础设施包括托管所述多个服务的第一子集的至少一个核心数据中心和托管所述多个服务的第二子集的一个或多个边缘计算站点;
至少部分地基于所获得的信息来确定与表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的两个或更多个参数相关联的值;
至少部分地基于与表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的所述两个或更多个参数相关联的所确定的值来生成所述多个服务中的每个服务的得分;
至少部分地基于所生成的所述多个服务的得分来识别所述多个服务中要迁移的至少一个给定服务,其中所述多个服务中要迁移的所述给定服务包括以下中的一者:所述多个服务的所述第一子集中要从所述至少一个核心数据中心迁移到所述一个或多个边缘计算站点中的至少一个边缘计算站点的一个服务;以及所述多个服务的所述第二子集中要从所述一个或多个边缘计算站点迁移到所述至少一个核心数据中心的一个服务;以及
迁移所述多个服务中的所述给定服务;
其中所述方法由至少一个处理装置执行,所述至少一个处理装置包括耦合到存储器的处理器。
19.如权利要求18所述的方法,其中表征在所述一个或多个边缘计算站点处托管所述多个服务中的相应服务的适合性的所述两个或更多个参数包括以下中的至少两者:
表征所述多个服务中的相应服务的可容忍时延的至少一个参数;
表征所述多个服务中的相应服务的带宽要求的至少一个参数;以及
表征所述多个服务中的相应服务的访问请求的数量的至少一个参数。
20.如权利要求18所述的方法,其中所述一个或多个边缘计算站点中的至少一个边缘计算站点存储用于所述多个服务中的所述给定服务的图像,用于所述多个服务中的所述给定服务的所述图像包括虚拟机图像和软件容器图像中的至少一者,并且其中迁移所述多个服务中的所述给定服务包括:通过利用由所述一个或多个边缘计算站点中的所述至少一个边缘计算站点存储的所述图像实例化虚拟机实例和软件容器实例中的至少一者来将所述多个服务中的所述给定服务从所述至少一个数据中心迁移到所述一个或多个边缘计算站点中的所述至少一个边缘计算站点。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110658172.8A CN115469994A (zh) | 2021-06-11 | 2021-06-11 | 边缘计算站点与核心数据中心之间的自动化服务分层 |
US17/371,406 US11886928B2 (en) | 2021-06-11 | 2021-07-09 | Automated service tiering between edge computing sites and a core data center |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110658172.8A CN115469994A (zh) | 2021-06-11 | 2021-06-11 | 边缘计算站点与核心数据中心之间的自动化服务分层 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115469994A true CN115469994A (zh) | 2022-12-13 |
Family
ID=84363721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110658172.8A Pending CN115469994A (zh) | 2021-06-11 | 2021-06-11 | 边缘计算站点与核心数据中心之间的自动化服务分层 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11886928B2 (zh) |
CN (1) | CN115469994A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115994026A (zh) * | 2021-10-20 | 2023-04-21 | 戴尔产品有限公司 | 核心和边缘计算站点之中的自动化应用程序分层 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111367187B (zh) * | 2015-08-27 | 2023-10-24 | 江森自控泰科知识产权控股有限责任公司 | 用于改进对分布式网络中的传感器流数据的处理的方法 |
US10440153B1 (en) * | 2016-02-08 | 2019-10-08 | Microstrategy Incorporated | Enterprise health score and data migration |
US11132608B2 (en) * | 2019-04-04 | 2021-09-28 | Cisco Technology, Inc. | Learning-based service migration in mobile edge computing |
US11616839B2 (en) * | 2019-04-09 | 2023-03-28 | Johnson Controls Tyco IP Holdings LLP | Intelligent edge computing platform with machine learning capability |
US11803413B2 (en) * | 2020-12-03 | 2023-10-31 | International Business Machines Corporation | Migrating complex legacy applications |
-
2021
- 2021-06-11 CN CN202110658172.8A patent/CN115469994A/zh active Pending
- 2021-07-09 US US17/371,406 patent/US11886928B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11886928B2 (en) | 2024-01-30 |
US20220398136A1 (en) | 2022-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11429449B2 (en) | Method for fast scheduling for balanced resource allocation in distributed and collaborative container platform environment | |
US10728091B2 (en) | Topology-aware provisioning of hardware accelerator resources in a distributed environment | |
US10325343B1 (en) | Topology aware grouping and provisioning of GPU resources in GPU-as-a-Service platform | |
US20200174840A1 (en) | Dynamic composition of data pipeline in accelerator-as-a-service computing environment | |
Abd Elaziz et al. | IoT workflow scheduling using intelligent arithmetic optimization algorithm in fog computing | |
CN103338228B (zh) | 基于双加权最小连接算法的云计算负载均衡调度算法 | |
US9229777B2 (en) | Dynamically relocating workloads in a networked computing environment | |
US12039354B2 (en) | System and method to operate 3D applications through positional virtualization technology | |
CN105471985A (zh) | 负载均衡方法及云平台计算方法、云平台 | |
CN116134448A (zh) | 使用局部敏感散列的联合机器学习 | |
CN112148492A (zh) | 一种考虑多用户移动性的服务部署和资源分配方法 | |
US20230196182A1 (en) | Database resource management using predictive models | |
US11216312B2 (en) | Management of unit-based virtual accelerator resources | |
Jiang et al. | Hierarchical deployment of deep neural networks based on fog computing inferred acceleration model | |
CN115469994A (zh) | 边缘计算站点与核心数据中心之间的自动化服务分层 | |
Tuli | SplitPlace: Intelligent placement of split neural nets in mobile edge environments | |
Durairaj et al. | MOM-VMP: multi-objective mayfly optimization algorithm for VM placement supported by principal component analysis (PCA) in cloud data center | |
Abd Elaziz et al. | Hybrid enhanced optimization-based intelligent task scheduling for sustainable edge computing | |
Rathore | A REVIEW TOWARDS: LOAD BALANCING TECHNIQUES. | |
WO2024033160A1 (en) | Sequential bidirectional migration in an edge environment | |
US20220374702A1 (en) | Methods and systems for predicting behavior of distributed applications | |
US20230082903A1 (en) | Autonomic application service framework | |
CN112948114B (zh) | 边缘计算方法和边缘计算平台 | |
Awasare et al. | Survey and comparative study on resource allocation strategies in cloud computing environment | |
Ogden et al. | Layercake: Efficient Inference Serving with Cloud and Mobile Resources |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |