CN114338679A - 用于边缘环境中的工作负荷布置的方法、设备和制品 - Google Patents

用于边缘环境中的工作负荷布置的方法、设备和制品 Download PDF

Info

Publication number
CN114338679A
CN114338679A CN202110975655.0A CN202110975655A CN114338679A CN 114338679 A CN114338679 A CN 114338679A CN 202110975655 A CN202110975655 A CN 202110975655A CN 114338679 A CN114338679 A CN 114338679A
Authority
CN
China
Prior art keywords
edge
platform
edge platform
workload
computing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110975655.0A
Other languages
English (en)
Inventor
K·A·杜什
N·M·史密斯
F·圭姆伯纳特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN114338679A publication Critical patent/CN114338679A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0806Configuration setting for initial configuration or provisioning, e.g. plug-and-play
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0895Configuration of virtualised networks or elements, e.g. virtualised network function or OpenFlow elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5019Ensuring fulfilment of SLA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • H04L41/0826Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for reduction of network costs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • H04L41/083Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for increasing network speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

公开了用于边缘环境中的工作负荷布置的方法、设备、系统和制品。一种用于边缘环境中的工作负荷布置的示例设备,该示例设备包括:编排器,用于接收执行来自边缘环境内的边缘平台的工作负荷的请求;以及能力控制器,用于分析请求以确定来自边缘平台的工作负荷的操作参数,并基于操作参数来分析候选边缘层和边缘平台布置,该编排器基于满足操作参数的候选边缘层和边缘平台布置来确定工作负荷的候选边缘层和边缘平台布置。

Description

用于边缘环境中的工作负荷布置的方法、设备和制品
技术领域
本公开总体上涉及边缘环境,并且更具体地涉及用于边缘环境中的 工作负荷布置的方法、设备和制品。
背景技术
边缘环境(例如,边缘、网络边缘、雾计算、多接入边缘计算(MEC)、 或物联网(IoT)网络)实现了更靠近请求工作负荷的执行的端点设备或请求 工作负荷的执行的端点设备附近的工作负荷执行(例如,一个或多个计算任务 的执行、使用输入数据的机器学习模型的执行等)。边缘环境可包括基础设施 (例如,网络基础设施),诸如经由网络(诸如因特网)连接到云基础设施、 端点设备或附加的边缘基础设施的边缘服务。边缘服务可比云基础设施(诸如 集中式服务器)更接近端点设备。
附图说明
图1描绘了根据本公开的教导的用于提供边缘服务和应用的示例边 缘计算系统。
图2描绘了根据本公开的教导的用于处理从客户端计算节点接收的 请求的边缘平台的示例实现方式。
图3是表示示例机器可读指令的流程图,该示例机器可读指令可以 被执行以实现图2和/或图3的示例编排器来确定工作负荷的候选边缘层和边缘 平台布置。
图4是表示示例机器可读指令的流程图,该示例机器可读指令可以 被执行以实现图2和/或图3的示例编排器来分析请求来确定要在边缘平台中实 现的工作负荷的操作参数。
图5是表示示例机器可读指令的流程图,该机器可读指令可以被执 行以实现图2和/或图3的示例编排器来基于操作参数来分析候选边缘层和边缘 平台布置。
图6是表示示例机器可读指令的流程图,该示例机器可读指令可以 被执行以实现图2和/或图3的示例编排器来确定工作负荷的候选边缘层和平台 布置。
图7是被构造用于执行图3的指令以实现图2的编排器的示例处理 平台的框图。
图8是示例软件分发平台的框图,该示例软件分发平台用于将软件 (例如,与图3-图6的示例计算机可读指令相对应的软件)分发给诸如消费者 (例如,用于许可、销售和/或使用)、零售商(例如,用于销售、转售、许可 和/或分许可)、和/或原始设备制造商(OEM)(例如,包括在要分发给例如 零售商和/或直接购买客户的产品中)之类的客户端设备。
图9图示出根据本公开的教导的用于边缘计算的边缘云配置的概览。
图10图示出根据本公开的教导的端点、边缘云和云计算环境之间 的操作层。
图11图示出根据本公开的教导的用于边缘计算系统中的联网和服 务的示例环境的框图。
图12图示出根据本公开的教导的在多个边缘节点和多个租户之间 操作的边缘计算系统中的虚拟边缘配置的部署。
图13图示出根据本公开的教导的在边缘计算系统中部署容器的各 种计算布置
图14图示出根据本公开的教导的涉及对示例边缘计算系统中的应 用的移动接入的示例计算和通信用例。
图15A是根据本公开的教导的可以部署在图9-图12和/或图14中 所图示的边缘计算系统中的一者中的示例计算节点的示例实现方式的框图。
图15B是根据本公开的教导的可以部署在图9-图12和/或图14中 所图示的边缘计算系统中的一者中的示例计算节点的示例实现方式的另一框 图。
这些图并未按比例绘制。一般来说,贯穿(多个)附图和所附书面 说明书,相同的附图标记将用于指代相同或相似的部分。除非另有指示,否则 连接参考(例如,附连的、耦合的、连接的、以及结合的)应被广义地解释并 且可包括元件集合之间的中间构件以及元件之间的相对移动。由此,连接参考 不必推断两个元件直接地连接并彼此处于固定的关系。
除非另有特别说明,诸如“第一”、“第二”、第三”等的描述词在本文 中使用而不以任何方式强加或以其他方式指示优先级、物理顺序、列表中的排 列和/或排序的任何含义,但仅用作标签和/或任意名称来区分元素以便于理解 所公开的示例。在一些示例中,描述符“第一”可以用于指代详细描述中的要素, 而在权利要求中可以使用诸如“第二”或“第三”之类的不同描述符来指代相同的 要素。在此类情况下,应当理解,此类描述符仅用于清楚地标识那些可能例如 以其他方式共享相同名称的元素。
具体实施方式
在一般层面,边缘计算是指计算和存储资源向更靠近于端点设备 (例如,消费者计算设备、用户装备等)的转变,以优化总拥有成本,减少应 用等待时间,改善服务能力,并且改善与数据私有性或安全性要求的合规性。 在一些场景中,边缘计算可提供类云分布式服务,该类云分布式服务可为应用 提供在许多类型的存储和计算资源之间的编排和管理。结果是,云计算的一些 实现方式被称为“边缘云”或“雾”,因为先前仅在大型远程数据中心中可用的强 大的计算资源被移动到更靠近于端点并使得其对于由处于网络的“边缘”处的消费者使用而言是可用的。
已经开发出采用移动网络设置的用于与多接入边缘计算(MEC)方 式集成的边缘计算用例,也被称为“移动边缘计算”。MEC方式被设计成允许 应用开发人员和内容提供商访问网络的边缘处以动态移动网络设置的计算能 力和信息技术(IT)服务环境。欧洲电信标准协会(ETSI)行业规范小组(ISG) 已开发了有限的标准,试图定义用于MEC系统、平台、主机、服务和应用的 操作的通用接口。
边缘计算、MEC以及相关技术试图提供相比于传统云网络服务和 广域网连接中所提供的减少的等待时间、增加的响应性、以及可用性更强的计 算能力。然而,将移动性和动态启动的服务的集成到某种移动使用和设备处理 用例已导致编排、功能协调、以及资源管理的限制和对编排、功能协调、以及 资源管理的关心,尤其在其中涉及许多参与方(例如,设备、主机、租户、服 务提供商、运营商等)的复杂移动性设置中。
以类似方式,物联网(IoT)网络和设备被设计成用于提供从各种 端点的分布式计算布置。IoT设备可以是在网络上通信的实体对象或虚拟化对 象,并且可以包括传感器、致动器以及其他输入/输出组件,IoT设备可用于收 集数据或在现实世界环境中执行动作。例如,IoT设备可以包括被嵌入到或附 连至日常物品的低功率的端点设备以提供对那些物品的附加水平的人工知觉 感知,这些日常物品诸如建筑物、交通工具、包裹等。近年来,IoT设备已经 变得更加普及并且由此使用这些设备的应用激增。
在一些示例中,边缘环境可以包括企业边缘,其中与企业边缘的通 信和/或企业边缘中的通信可以经由无线和/或有线连接性来促进。各种边缘、 雾、MEC和IoT网络、设备、以及服务的部署已经引入了许多高级用例和场 景,这些用例和场景在网络边缘处并朝向网络边缘处发生。然而,这些高级用 例也引入了与安全性、处理和网络资源、服务可用性和效率等等许多其他问题 有关的多个对应的技术挑战。一个此类挑战与边缘、雾、MEC和IoT网络、 设备以及服务代表端点设备执行工作负荷有关。
现有技术和配置可与当前联网系统结合使用,但是参考边缘云、IoT、 多接入边缘计算(MEC)以及其他分布式计算部署来提供。下列系统和技术可 被实现在各种分布式、虚拟化、或受管理的边缘计算系统中或者增强各种分布 式、虚拟化、或受管理的边缘计算系统。这些包括其中使用多接入边缘计算 (MEC)、第四代(4G)或第五代(5G)无线网络配置来实现或管理网络服 务的环境;或者包括采用涉及光纤、铜以及其他连接的有线网络配置的环境。 进一步地,由相应计算组件进行的处理的各方面可涉及地理上接近用户装备或 其他端点位置的计算元件,用户装备或端点诸如智能电话、交通工具通信组件、 IoT设备等。进一步地,当前所公开的技术可涉及其他边缘/MEC/IoT网络通信 标准和配置以及其他中间处理实体和架构。
边缘计算是一种开发范式,其中计算在网络的“边缘”处或靠近于网 络的“边缘”被执行,典型地通过使用在基站、网关、网络路由器、或更靠近于 产生和消耗数据的端点设备的其他设备处实现的计算平台来执行。例如,边缘 网关服务器可装配有存储器池和存储资源,以针对连接的客户端设备的低等待 时间用例(例如,自主驾驶或视频监控)实时地执行计算。或者作为示例,基 站可被扩充有计算和加速资源,以直接为连接的用户装备处理服务工作负荷, 而无需进一步经由回程网络传输数据。或者作为另一示例,中央办公网络管理 硬件能以执行虚拟化网络功能并为服务的执行提供计算资源且为连接的设备 提供消费者功能的计算硬件来代替。
边缘环境包括位于云环境与端点环境之间的网络和/或网络的部分。 边缘环境实现在网络的边缘处对工作负荷的计算。例如,端点设备可请求附近 基站计算工作负荷而不是请求云环境中的中央服务器。边缘环境包括边缘平台, 边缘平台包括存储器池、存储资源、和/或处理资源。边缘平台代表其他边缘平 台和/或边缘节点执行计算,诸如工作负荷的执行。边缘环境促进生产者(例如, 工作负荷执行方、边缘平台)与消费者(例如,其他边缘平台、端点设备)之 间的连接。
由于边缘平台可能相比于云环境中的集中式服务器更靠近端点 设备,因此边缘平台使得相比于云环境能够以更低的等待时间(例如,响 应时间)来对工作负荷进行计算,同时与在云环境中经历的那些相比,还 经历更少的通信延迟和更少的网络使用来用于传输数据、计算请求和结果。 边缘平台还可基于地理位置或网络布局来实现本地化的对工作负荷的执行。例 如,端点设备可要求工作负荷在第一地理区域中被执行,但集中式服务器可位 于第二地理区域中。端点设备可请求由位于第一地理区域中的边缘平台来进行 工作负荷执行以符合企业或监管限制。
要在边缘环境中执行的工作负荷的示例包括自主驾驶计算、视频监 控监视、机器学习模型执行、以及实时数据分析。工作负荷的附加示例包括递 送和/或编码媒体流、测量广告印象率、媒体流中的对象检测、语音分析、资产 和/或库存管理、以及增强现实处理。
边缘平台使得能够以相比于云环境中的服务器的响应时间更低的 响应时间来执行工作负荷并将所执行的工作负荷的结果返回至端点设备。例如, 如果边缘平台位于相比于云服务器更靠近于网络上的端点设备,则该边缘平台 可相比于云服务器更快地响应于来自端点设备的工作负荷执行请求。端点设备 可请求从边缘服务而不是云服务器对时间受限的工作负荷的执行。
另外,边缘平台实现对工作负荷执行的分布和去中心化。例如,端 点设备可请求第一工作负荷执行和第二工作负荷执行。在一些示例中,云服务 器可响应于这两个工作负荷执行请求。然而,在边缘环境的情况下,第一边缘 平台可执行第一工作负荷执行请求,并且第二边缘平台可执行第二工作负荷执 行请求。
为了满足端点设备的低等待时间和/或高带宽需求,边缘云中的编排 在关于许多资源(例如,硬件资源、软件资源、虚拟硬件和/或软件资源等)的 利用以及那些资源能够满足对其的需求的效率的及时信息的基础上被执行。此 类及时信息一般被称为遥测(例如,遥测数据、遥测信息等)。
遥测可以从包括每个硬件组件或其部分、虚拟机(VM)、操作系 统(OS)、应用、以及编排器的多个源生成。遥测可以由编排器、调度器等用 于确定要被调度以供在这些资源或其(多个)部分处执行的计算任务的数量、 多个数量和/或类型,并且基于历史和/或当前(例如,即时或接近即时的)遥 测来确定完成此类计算任务的预期时间。例如,多核中央处理单元(CPU)的 核可以使用性能监视单元(PMU)对核和/或更一般地对多核CPU进行采样而在每几分之一秒内生成成千种不同的信息。周期性地聚合和处理给定的边缘 平台、边缘节点等中的所有此类遥测可能是艰巨且繁琐的过程。对突出的感 兴趣特征排定优先级并从遥测提取此类突出特征以标识与资源相关联的当前 或未来问题、压力因素等是困难的。此外,标识不同的资源以从负担沉重的资 源迁移工作负荷是复杂的任务。
一些边缘环境期望获得与执行各种功能或服务的资源相关联的遥 测数据,这些功能或服务诸如数据处理或视频分析功能(例如,机器视觉、用 于自主交通工具的图像处理、面部识别检测、视觉对象检测等)。然而,包括 一个或多个视频分析功能在内的许多高吞吐量工作负荷可能执行不到一毫秒 (或其他相对较短的时间持续期)。此类边缘环境不具备能够监控在平台(例 如,资源平台、硬件平台、软件平台、虚拟化平台等)上执行的此类高粒度无 状态功能的分布式监控软件或硬件解决方案或其组合。
许多边缘环境包括用于资源管理和编排的多种组件。
考虑到边缘平台(例如,基站)处的功率和/或热限制,而不是更传 统的集中式云环境(例如,中央局)中的功率和/或热限制,边缘平台处的动态、 智能和每租户功率管理策略可以减少和/或收回与边缘架构相关联的资本支出 和/或运营支出。例如,通过将投资于边缘服务提供商的边缘架构的所有能力货 币化,边缘提供商可以收回与边缘架构功能相关联的资本支出和/或运营支出。 一些边缘架构可以由太阳能和风能供电。当边缘平台的计算资源和/或热条件由 可变可再生能源(例如,太阳能、风能、水力等)和/或用有限容量的备用电池 供电时,未能为服务提供准确的功率管理可能降低边缘平台的可靠性。此外,一些边缘架构可以具有稳定的功率(例如,连接到网格),但是,在此类边缘 架构中,平衡热条件可能具有挑战性。
虽然原始装备制造商(OEM)和硅供应商考虑分布式计算环境的功率 要求和/或电源,但许多人假设类数据中心、连续和稳定供电的环境具有不间断 电源和发电机,这些电源和发电机可在断电期间提供支持。用于边缘平台的许 多OEM和硅供应商设计缺乏对动态功率和/或热包络下最佳和灵活操作的支持。 此外,与在边缘环境中操作相比,在传统计算环境中操作时,边缘平台可具有 不同的功率性能影响。
边缘环境中的另一个挑战是有限的供应,不仅在功率方面,而且在 边缘平台的弹性方面。在将传统的、类数据中心的云实践扩展到在不同边缘位 置主控应用时,需要考虑的一些因素包括:在边缘平台处为每个工作负荷(例 如,服务、应用等)分配多少资源;如何和/或在何处使用加速器以获得良好的 每瓦性能;基于功率,在边缘平台之间迁移哪些服务以防止功耗峰值;以及(例 如,基于策略)如何平衡与各种租户工作负荷相关联的服务水平协议之间的功 率需求。
边缘环境中可能发生的不均匀和不可预测的需求以及边缘环境中 功率和/或其他资源的非弹性供应不仅导致用户/租户服务/应用消耗功率和/或 其他资源,而且导致同样消耗功率和硬件的系统软件堆栈和边缘平台管理组件。 例如,在一些边缘平台中,软件堆栈和边缘平台管理组件可以利用整个边缘平 台30%的占用。
本文公开的示例包括用于边缘环境中用来控制对在边缘平台进行 工作负荷执行的请求的处理的工作负荷布置的方法、设备和制品。本文公开的 示例包括接收执行来自边缘环境内的边缘平台的工作负荷的请求。本文公开的 示例包括分析请求以确定来自边缘平台的工作负荷的操作参数。在一些示例中, 确定操作参数包括导出操作参数所需的因素的子集。在一些示例中,因素的子 集包括安全级别、准确性级别、边缘平台对其他微服务的依赖关系、边缘环境 中依赖关系的位置、边缘平台的使用信息或边缘平台的服务水平协议(SLA) 属性。在一些示例中,确定操作参数包括估计边缘平台的资源需求,资源需求 包括基于因素子集的工作负荷的功率测量、热测量、等待时间测量和/或带宽测 量。在一些示例中,基于更新的操作参数更新资源需求。
本文公开的示例包括基于操作参数来分析工作负荷的候选边缘层 和边缘平台布置。在一些示例中,分析候选边缘层和边缘平台布置包括确定候 选边缘层和边缘平台布置中的每一个的资源可用性。在一些示例中,资源可用 性对应于基于来自候选边缘层和边缘平台布置中的每一个的遥测数据的候选 边缘层和边缘平台布置中的每一个处的功率可用性、热可用性、等待时间可用 性和/或带宽可用性。本文公开的示例包括基于满足操作参数的候选边缘层和边 缘平台布置来确定工作负荷的候选边缘层和边缘平台布置。在一些示例中,确 定边缘平台的候选边缘层和边缘平台布置包括:确定候选边缘层和边缘平台布置中的每一个的操作参数百分比,操作参数百分比与满足边缘平台的资源需 求的边缘层和边缘平台布置的资源可用性的百分比相对应;选择具有最佳操 作参数百分比的边缘层和边缘平台布置作为候选边缘层和边缘平台布置;以及 实施候选边缘层和边缘平台布置处的工作负荷。在一些示例中,响应于候选边 缘层和边缘平台布置中的每一个的操作参数百分比不满足阈值,调节资源需求 和成本函数权重。如本文所用,“成本函数权重”或“成本函数”是指随着误差幅 度(例如,迭代次数)而增加以确保工作负荷的布置和执行期间的准确性和安 全性的惩罚。
在一些示例中,成本函数权重用于逐渐更保守地偏置候选边缘层和 边缘平台布置的选择,这指的是应用更高成本函数权重,该权重对应于分配更 多资源以例如在违反SLA之前增加安全性裕度。换句话说,在优化过程或模 型中利用成本函数权重来支持更高的资源分配,以确保不违反SLA。也就是说, 在第一操作没有返回任何合适的候选边缘层和边缘平台布置之后(例如,未能 满足SLA阈值、未能满足功率资源要求等),将使用针对成本函数和针对资 源需求调节的值执行另一个操作。在本文公开的一些示例中,可以使用任何数 量的迭代,直到不再违反预计的SLA,或者预计的等待时间和吞吐量偏离SLA, 或者超过迭代的最大数量或迭代时间。其他示例可以使用不同的收敛流程,其 中上述迭代方面本身被集成到经训练模型中。
本文公开的示例可以基于所确定的边缘层和边缘平台布置决策来 收集传入遥测、不同节点的预计未来利用率。因此,当前遥测包括实际测量(可 能将时间向过去推移少量)和来自正在进行的请求布置决策的预计利用率。
在一些示例中,当边缘服务提供商很早就确定在偏好的边缘平台位 置处和/或附近没有足够的资源可用时,它可以通过支付用于进入边缘协同定位 (“Co-Lo”)基础设施的额外成本来获取额外的资源。
在本文公开的一些示例中,例如,随着关于SLA违反的统计的改进 或降级,高速缓存的结果被周期性地老化以允许系统适应变化的条件,而不是 被锁定在次优解决方案中。
在一些示例中,来自传入请求和来自汇总遥测的数据连同布置决策 的实际结果(它们是否满足或不满足SLA标准)被汇总并上传到后端云。它 们用于训练或改进从工作负荷类型(即,请求类型)和量化SLA映射到性能、 带宽和功率需求的模型的训练。例如,类似的离线训练可用于调节成本函数的 默认权重。
本文公开的示例可以用基于人工智能(AI)目标的技术(诸如强化学 习)来扩展。例如,生成的数据和每个服务的事后性能和遥测数据可以提供给 AI模型,AI模型随后可以利用公开的示例在决策过程中获得另一个输入。与 许多其他类型的架构一样,可以在集中位置(并反馈到分布式层)(诸如云) 或联合学习方法中实施强化学习。例如,后者可以允许基于地理位置或边缘计 算系统100的不同部分的更具体的学习。
如本文所用,“边缘平台”是指边缘网关平台、边缘聚合平台、雾平 台(例如,微云)、核心数据中心和/或在边缘环境中实现/执行的工作负荷。 在本文公开的示例中,边缘平台可以由硬件、软件、固件和/或硬件、软件和/ 或固件的任何组合来实现。在本文公开的示例中,边缘平台通过使资源可用于 作为组装到虚拟机、舱、容器等中的计算资产以供分配并通过聚合和联网为工 作负荷的执行供应组装的虚拟机、舱、容器等来分配资源。
如本文所用,“工作负荷”是指被指定为具有各种计算要求、性能要 求、安全性要求、成本要求等的应用任务,其在微云上执行(例如,在一个或 多个物理平台上动态供应的虚拟化资源(处理器、存储器、存储、加速单元) 等的集合)。
如本文所用,“边缘节点”是指具有处理器、存储器等的数个(一个、 两个、5个等)互联机器,这些机器被分配以便供应将在边缘节点处执行的工 作负荷将需要的资源。在本文公开的示例中,确定边缘节点还指确定执行工作 负荷的边缘层(近边缘、远边缘、接入边缘、数据中心云等)。
如本文所用,“边缘层布置”和“边缘层和边缘平台布置”是指在边缘 层中的边缘平台处布置工作负荷,以及选择边缘环境中的资源以用于执行给定 工作负荷的计算操作。
如本文所用,“最佳操作参数百分比”是指组合数个期望的操作参数 (诸如i)可用,ii)可用且最近,iii)可用、最近且最便宜,iv)可用、最便宜且足 够接近等)并确定与边缘层和边缘平台布置相关联的百分比(包括期望的操作 参数)的函数。
图1描绘了用于将边缘服务和应用提供给多利益相关者实体的示例 边缘计算系统100,如在一个或多个客户端计算平台102、一个或多个边缘网 关平台112、一个或多个边缘聚合平台122、一个或多个核心数据中心132和 全球网络云142之间所分布,如跨边缘计算系统100的各个层所分布。可以在 电信服务提供商(“telco”或“TSP”)、物联网服务提供商、云服务提供商(CSP)、 企业实体或任何其他数量的实体处或以这些实体的名义提供边缘计算系统100 的实现方式。诸如当进行编排以满足服务目标时,可以动态地提供边缘计算系 统100的各种实现方式和配置。
边缘计算系统100的各个平台或设备位于与层120、130、140、150 和160相对应的特定层。例如,客户端计算节平台102a、102b、102c、102d、 102e、102f位于端点层120,而边缘网关平台112a、112b、112c位于边缘计算 系统300的边缘设备层130(本地级别)。附加地,边缘聚合平台122a、122b (和/或(多个)雾平台124,如果与雾联网配置126一起布置或操作,或者在 雾联网配置126中布置或操作)位于网络接入层140(中间级别)处。雾计算 (或“雾化(fogging)”)通常是指云计算扩展到企业的网络的边缘或指跨云/ 边缘环境管理事务的能力,通常在协调的分布式或多节点网络中。一些形式的 雾计算在终端设备与代表云计算位置的云计算数据中心之间提供计算、存储和 联网服务的部署。一些形式的雾计算还通过基于履行整体服务水平协议的能力 将某些工作负荷推送到边缘或推送到云提供了在整体事务方面管理工作负荷/ 工作流级别服务的能力。
在许多场景中,雾计算提供了分散化的架构,并通过与一个或多个 边缘节点设备协作来用作云计算的扩展,从而为终端设备提供后续的本地化控 制量、配置和管理等。此外,雾计算为边缘资源提供标识相似资源和协作的能 力,以便创建可以单独使用或与云计算结合使用以完成计算、存储或连接性相 关的服务的边缘本地云。雾计算还可以允许基于云的服务扩展其达到设备网络 的边缘,以提供对边缘设备的本地的和更快的访问。因此,一些形式的雾计算 提供与本文所讨论的边缘计算一致的操作;本文所讨论的边缘计算方面也适用 于雾网络、雾化、和雾配置。进一步地,本文所讨论的边缘计算系统的各方面 可以被配置为雾,或者雾的各方面可以被集成到边缘计算架构中。
核心数据中心132位于核心网络层150(区域或地理中心级别), 而全球网络云142位于云数据中心层160(国家或世界范围层)。“核心”的使 用被提供为网络中较深的集中式网络位置的术语,该集中式网络位置可由多个 边缘平台或组件访问;然而,“核心”不一定指定网络的“中心”或最深位置。因 此,核心数据中心132可位于边缘云110内、边缘云110处或边缘云110附近。 尽管在图1中示出客户端计算节平台102a、102b、102c、102d、102e、102f; 边缘网关平台112a、112b、112c;边缘聚合平台122a、122b;边缘核心数 据中心132;以及全球网络云142的说明性数量,应当理解,边缘计算系统 100可以在每一层包括任意数量的设备和/或系统。在任何层处的设备都可以 被配置成彼此的对等节点和/或对等平台,并且因此,以协作式的方式来满足服 务目标。例如,在附加或替代示例中,边缘网关平台112a、112b、112c可以 被配置为边缘中的边缘,使得边缘网关平台112a、112b、112c经由对等连接 进行通信。在一些示例中,边缘聚合平台122a、122b和/或(多个)雾平台124 可以被配置为边缘中的边缘,使得边缘聚合平台122a、122b和/或(多个)雾 平台经由对等连接进行通信。附加地,如图1所示,相应层120、130、140、 150和160的组件的数量通常以每个较低的级别增加(例如,当移动到靠近端 点(例如,客户端计算平台102a、102b、102c、102d、102e、102f)时)。因 此,一个边缘网关平台112a、112b、112c可以服务客户端计算平台102a、102b、 102c、102d、102e、102f中的多个并且一个边缘聚合平台(例如,边缘聚合平 台122a、122b之一)可以服务边缘网关平台112a、112b、112c中的多个。
与本文中所提供的示例一致,客户端计算平台(例如,客户端计算 平台102a、102b、102c、102d、102e、102f之一)可被实现为任何类型的端点 组件、设备、装置、或能够作为数据的生产者或消费者进行通信的其他事物。 例如,客户端计算平台可以包括移动电话、膝上型计算机、台式计算机、自主 交通工具中的处理器平台等。在附加或替代示例中,客户端计算平台可以包括 相机、传感器等。进一步地,如边缘计算系统100中所使用的标签“平台”、“节 点”、和/或“设备”不一定意指以客户端或代理/仆从/跟随者/角色操作的此类平 台、节点、和/或设备;相反,边缘计算系统100中的平台、节点、和/或设备 中的任一者指代包括分立的和/或连接的硬件和/或软件配置以促进和/或使用 边缘云110的各个实体、平台、节点、设备和/或子系统。
由此,边缘云110由分别由层130、140的边缘网关平台112a、112b、 112c和边缘聚合平台122a、122b操作并在层130、140的边缘网关平台112a、 112b、112c和边缘聚合平台122a、122b内被操作的网络组件和功能特征形成。 边缘云110可被实现为提供边缘计算和/或存储资源的任何类型的网络,这些边 缘计算和/或存储资源被定位成接近支持无线电接入网络(RAN)的端点设备 (例如,移动计算设备、IoT设备、智能设备等),其在图1中被示出为客户 端计算平台102a、102b、102c、102d、102e、102f。换言之,边缘云110可被 预想为连接端点设备和传统网络接入点、同时还提供存储和/或计算能力的“边 缘”,该“边缘”充当进入到包括移动运营商网络(例如,全球移动通信系统(GSM) 网络、长期演进(LTE)网络、5G/6G网络等)的服务提供商核心网络中的入 口点。其他类型和形式的网络接入(例如,Wi-Fi、长程无线、包括光学网络 的有线网络)也可替代此类3GPP运营商网络被利用或与此类3GPP运营商网 络组合来利用。
在一些示例中,边缘云110可以形成雾联网配置126的一部分或以 其他方式提供到雾联网配置126(例如,(多个)雾平台124的网络,未详细 示出)中或跨雾联网配置126的入口点,该雾联网配置可被实现为系统级别横 向且分布式架构,该架构分布资源。例如,边缘云100可以通过使资源或功能 可用于作为组装到虚拟机、舱、容器等中的计算资产分配来形成进入雾网络配 置126的入口点的一部分。进一步地,边缘云110可以通过聚合、联网和服务 来为工作负荷的执行供应组装的虚拟机、舱、容器等,以执行特定功能。例如, (多个)雾平台124的经协调的和分布式网络可以在IoT系统布置的上下文中 执行计算、存储、控制、或联网方面。在核心数据中心132与客户端端点(例 如,客户端计算平台102a、102b、102c、102d、102e、102f)之间的边缘云110 中可以存在其他联网的、聚合的和分布式的功能。下面各部分将在网络功能或 服务虚拟化的上下文中讨论其中的一些,包括为多个租户编排的虚拟边缘和虚 拟服务的使用。
如下文更详细地讨论的,边缘网关平台112a、112b、112c和边 缘聚合平台122a、122b协作以将各种边缘服务和安全性提供给客户端计算 平台102a、102b、102c、102d、102e、102f。此外,由于客户端计算平台(例 如,客户端计算平台102a、102b、102c、102d、102e、102f中的一个)可以是 固定的或移动的,因此当相对应的客户端计算平台102a、102b、102c、102d、 102e、102f在区域内移动时,相应的边缘网关平台112a、112b、112c可以与 其他边缘网关平台合作以传播当前提供的边缘服务、相关服务数据和安全性。 为此,边缘网关平台112a、112b、112c和/或边缘聚合平台122a、122b可以支 持多个租户和多个租户配置,其中来自多个服务提供商、所有者和多个消费者 的服务(或由多个服务提供商、所有者和多个消费者主管的服务)可以跨单个 或多个计算设备被支持和被协调。
在本文公开的示例中,边缘计算系统100中的边缘平台包括元编排 功能。例如,远边缘处的边缘平台(例如,更靠近边缘用户的边缘平台、边缘 设备层130等)可以降低与远边缘平台相关联的编排任务的性能或功耗,使得 在远边缘平台上执行编排组件消耗远边缘平台上可用的功率和性能的一小部 分。
各种远边缘平台的编排器参与端到端的编排架构。本文公开的示例 预期将扩展综合操作软件框架(诸如,开放网络自动化平台(ONAP)或类似 平台)或在其中创建选项,从而本文公开的示例可以与那些框架兼容。例如, 在边缘平台处实现本文公开的示例的编排器可以与ONAP编排流对接并促进 边缘平台编排和遥测活动。实现本文公开的示例的编排器用于调节在边缘平台 处执行的编排和遥测活动,包括增加或减少本地编排和遥测组件消耗的功率和 /或资源,将编排和遥测进程委托给远程计算机和/或在功率和/或资源可用时从 远程计算机检索编排和遥测进程。
上述远程设备位于相对于迁移遥测和编排进程的那些边缘平台的 替代位置。例如,相比之下,上述远程设备可以位于接近边缘平台(例如,网 络接入层140、核心网络层150、中央局、小型数据中心等)。通过在接近边缘 平台处迁移遥测和/或编排进程,接近边缘平台处的编排器确保(相对)稳定的 电源和足够的计算资源以促进遥测和/或编排进程的执行。接近边缘平台处的 (例如,根据全局循环操作的)编排器可以从远边缘平台处的(例如,根据本 地循环操作的)编排器获取委托的遥测和/或编排进程。例如,如果接近边缘平 台处的编排器接受委托的遥测和/或编排进程,则在稍后的某个时间,接近边缘 平台处的编排器可以在远边缘平台的条件发生变化(例如,随着远边缘平台上 的功率和计算资源满足阈值水平,随着更高级别的功率和/或计算资源在远边缘 平台上变得可用,等等)时将委托的遥测和/或编排进程返回给远边缘平台处的 编排器。
在边缘云110的架构内可以利用各种安全性方法。在多利益相关者 环境中,可以存在用于供应实施利益相关者的利益(包括多个租户的利益)的 策略的多个可加载的安全性模块(LSM)。在一些示例中,其他运营商、服务 提供商等可能拥有与租户利益相竞争的安全性权益。例如,租户可能更偏好免 费获得完整的服务(例如,由边缘平台提供),而服务提供商则希望通过执行 少量工作或产生少量成本而获得完整的支付。实施点环境可以支持应用经加载 的LSM策略组合的多个LSM(例如,在应用最受约束的有效策略的情况下, 诸如如果A、B或C利益相关者中的任一者限制访问,则访问被限制)。在边 缘云110内,每个边缘实体可以提供实施边缘实体利益的LSM。云实体可以 供应实施云实体利益的LSM。同样地,各种雾和IoT网络实体可以供应实施雾 实体的利益的LSM。
在这些示例中,可以从事务的角度来考虑服务,这些服务是针对合 同或组成部分的集合执行的,无论是在组成部分级别还是在人类可感知的级别 考虑。因此,与服务提供商签订了服务协议的用户期望根据SLA的条款来交 付服务。虽然没有详细讨论,但是本文所讨论的边缘计算技术的使用可能在协 议的协商和协议的履行的度量期间中发挥作用(例如,以标识系统需要哪些元 素来进行服务,系统如何响应于服务条件和改变,等等)。
此外,在本文公开的示例中,边缘平台和/或其编排组件在编排边缘 环境中的服务和/或应用时可考虑若干因素。这些因素可以包括下一代中央局智 能网络功能虚拟化和服务管理,从而提高边缘平台和/或编排组件的每瓦性能以 克服边缘平台的功率限制、降低编排组件和/或边缘平台的功率消耗、提高硬件 利用率以提高管理和编排效率、提供物理和/或端到端安全性、提供单个租户的 服务质量和/或服务水平协议满意度、提高每个用例和租户业务模型的网络装备 构建系统合规性水平、池化加速组件、计费和计量策略以改善边缘环境、提高 结果的准确性、降低瞬态中断的可能性和持续时间,以及以其他方式提高用户 体验的感知质量。
“服务”是通常应用于各种上下文的宽泛的术语,但一般来说,它指 的是两个实体之间的关系,其中一个实体为另一个实体的利益提供和执行工作。 然而,从一个实体交付给另一个实体的服务必须在某些指导下执行,以确保实 体之间的信任,并按照在服务开始、服务期间和服务结束时提出的合同条款和 条件来管理事务。
以下描述了在边缘计算系统中使用的服务之间的示例关系。在边缘 计算的场景中,存在若干服务和事务层在运行并且这些层相互依赖——这些服 务创建了“服务链”。在最低级别,组成部分构成系统。这些系统和/或资源彼此 通信和协作,以便向彼此以及它们周围的其他永久或瞬态实体提供多种服务。 反过来,这些实体可以提供人类可消费的服务。根据该层级结构,在每个层处 提供的服务必须在事务上被连接,以确保提供服务的单个组件(或子实体)遵 守合同约定的目标和规范。每一层的偏差都会导致对整个服务链的整体影响。
可以在边缘环境层级结构中提供的一种类型的服务是硅级服务。例 如,软件定义的硅(SDSi)型硬件通过内部扩展、管理和确保运营服务级别协 议的交付能力来提供确保低级别遵守事务的能力。使用SDSi和类似的硬件控 件,能够将系统内的特征和资源与特定的租户相关联,并管理这些资源的个体 所有权(权利)。使用此类特征是将计算资源动态地“带”到工作负荷中的方式 之一。
例如,操作水平协议和/或服务水平协议可以定义“事务吞吐量” 或“及时性”——在SDSi的情况下,系统和/或资源可以签署保证特定的服务 水平规范(SLS)和服务水平协议(SLA)的目标(SLO)。例如,SLO可 以对应于应用(例如,服务、工作负荷等)的特定关键性能指标(KPI)(例 如,每秒帧数、每秒浮点操作数、等待时间目标等),并且SLA可以对应于满足特定SLO(例如,每秒10帧的1GB存储器)的平台水平协议。SDSi硬 件还为基础设施和资源所有者提供授权硅组件(例如,组成系统的产生度量遥 测的组件)访问和管理(添加/删除)产品特征并自由地向上和向下扩展硬件能 力和利用率的能力。此外,它还提供了在每租户的基础上提供确定的特征分配 的能力。在不需要中断正在运行的服务、客户端操作或通过重置或重新引导系 统的情况下,它还提供了将确定性编排和服务管理与特征的动态(或基于订阅 的)激活联系起来的能力。
在最低层处,SDSi可以向系统提供服务和保证,以确保对单个资源 必须在系统内提供的合同约定的服务水平规范的主动遵守。附加地,SDSi提 供了管理每个组件上的一个或多个租户的合同权利(所有权)、使用和相关联 的财务状况、或者甚至管理硅级别特征(例如,SKU特征)的能力。硅级别特 征可以与计算、存储或网络能力、性能、确定性或甚至针对安全性、加密、加 速等的特征相关联。这些能力不仅确保租户能达成特定的服务水平协议,还可 以协助管理和数据收集,并在最低可管理组件水平确保事务和合同协议。
服务层级结构中的较高层(资源级别服务)包括通过经由SDSi获 取和实现系统级特征,或通过单独的可寻址资源(计算、存储和网络)的组合,(以 完全或通过组合的方式)提供满足工作负荷需求的能力的系统和/或资源。服务 层级结构的又一较高层(工作流级别服务)是横向的,因为服务链可以具有工 作流级别的需求。工作流描述了工作负荷之间的依赖关系,以便向端到端服务 交付特定的服务水平目标和要求。这些服务可以包括像高可用性、冗余、恢复、 容错或负荷均衡那样的特征和功能(我们可以在其中包含更多)。工作流服务 定义了资源与系统之间的依赖性和关系,描述了对相关联的网络和存储的要求,还描述了事务级别要求和相关联的合同,以便保证端到端的服务。工作流级别 服务通常以服务水平目标来度量,并且具有强制性和预期的服务要求。
服务层级结构的又一较高层(业务功能服务(BFS))是可操作的, 并且这些服务是具有相对于彼此的关系并为消费者提供特定功能的服务的不 同要素。在边缘计算的情况下,并且在自主驾驶的示例内,业务功能可以组成 例如“及时到达事件”服务–该服务将需要多个业务功能一起工作并且一致地实 现用户实体的目标:GPS导航、RSU(路边单元)感知当地交通状况、用户实 体的支付历史、(多个)资源的用户实体的授权等。此外,由于这些BFS将服 务提供给多个实体,因此每个BFS管理其自身的SLA,并知道其处理其自身 资源(工作负荷和工作流)的需求的能力。随着要求和需求的增加,它将服务 改变要求传递给工作流和资源级别服务实体,这样他们就可以反过来提供对其 履行能力的见解。该步骤协助向下一层的整个事务和服务交付。
服务层级结构中的服务的最高层(业务级服务(BLS))与正在被 交付的能力关联。在该级别上,消费者或实体可能不关心服务是如何组成的, 或者使用、管理和/或跟踪哪些组成部分以便提供(多个)服务。业务级别服务 的主要目标实现由消费者根据就约定的财务协议在消费者与供应商之间制定 的整体合同条款和条件设定的目标。(多个)BLS由若干业务功能服务(BFS) 和整体SLA组成。
本文所描述的该布置和其他服务管理特征被设计成利用其唯一且 复杂的资源和服务交互来满足边缘计算的各种需求。该服务管理布置旨在固有 地解决其框架内的若干资源基础服务,而不是通过代理或中间件功能。服务诸 如:定位、查找、寻址、追踪、跟踪、标识和/或注册,可以在资源出现在框架 上时立即生效,并且资源域的管理者或所有者可以使用管理规则和策略来确保 资源发现、注册和证明有序地进行。
此外,本文描述的任何数量的边缘计算架构都可以与服务管理特征 相适应。这些特征可以使系统能够不断地感知和记录与资源的运动、向量和/ 或方向有关的信息,并将这些特征完全描述为与设备相关联的遥测和元数据两 者。这些服务管理功能可用于资源管理、计费和/或计量,以及安全性的要素。 相同的功能也适用于相关的资源,其中不太智能的设备(如传感器)可能附接 到更易于管理的资源(诸如边缘网关)。服务管理框架知晓资源的监管或封装 的改变。由于节点和组件在短持续时间内或在其整个生命周期内可以是直接可 访问的或通过父级设备或替代的负责设备间接管理的,因此该类型的结构通过其接口中继至服务框架,并对外部查询机制变得可用。
附加地,该服务管理框架始终是有服务意识的,并且自然地将服务 交付需求与资源的能力和可用性以及对数据上传数据分析系统的访问进行平 衡。如果网络传输降级、失效或改变为更高成本或更低带宽功能,则服务策略 监测功能在用户的隐私或成本约束范围内提供替代的分析和服务交付机制。通 过这些特征,策略可以触发边缘处的分析和仪表板服务的调用,从而确保在降 低的保真度或粒度的情况下的持续服务可用性。一旦网络传输重新建立,常规 数据收集、上传和分析服务就可以恢复。
多利益相关者边缘计算系统的部署可以被布置和被编排以实现在 多个边缘平台和子系统之间部署多个服务和虚拟边缘实例,以供多个租户和服 务提供商使用。在适用于云服务提供商(CSP)的系统示例中,边缘计算系统 的部署可以经由过顶(“over-the-top)”方法提供,以引入边缘计算平台作为云 计算的补充工具。在适用于电信服务提供商(TSP)的对比系统示例中,可以 经由“网络聚合”方法来提供边缘计算系统的部署,以在网络接入(来自不同类 型的数据接入网络)被聚合的位置处引入边缘计算平台。然而,这些过顶和网络聚合方法可以在混合或合并的方法或配置中一起实现。
图2描绘了根据本公开的教导的用于处理从客户端计算节点接收的 工作负荷的请求的边缘平台200的示例实现方式。例如,边缘网关平台112a、 112b、112c中的任一个;边缘聚合平台122a、122b;(多个)雾平台124;和 /或核心数据中心132可以通过边缘平台200实施。图2的示例边缘平台200 包括示例编排器202、示例能力控制器204、示例遥测控制器206、示例边缘平 台(EP)数据库208和(多个)示例资源210。在图2的示例中,编排器202、 能力控制器204、遥测控制器206、EP数据库208和/或(多个)资源210中的 任一个可以经由示例通信总线212进行通信。在本文公开的示例中,通信总线 212可以使用任何合适的有线和/或无线通信来实现。在附加或替代示例中,通 信总线212包括软件、机器可读指令和/或通信协议,通过通信总线在编排器 202、能力控制器204、遥测控制器206、EP数据库208和/或(多个)资源210 之间传送信息。在一些示例中,编排器202是用于编排的装置或编排装置。在 一些示例中,能力控制器204是用于控制能力的装置或能力控制装置。在一些 示例中,遥测控制器206是用于控制遥测的装置或遥测控制装置。在一些示例 中,EP数据库208是用于存储的装置或存储装置。在一些示例中,(多个) 资源210是用于资源的装置或资源装置。
在一些示例中,边缘平台200可以与信息中心联网(ICN)结合使用, 其中ICN作为现有边缘网络层之上的层操作。例如,ICN可以以在多个边缘平 台200上高速缓存和复制EP数据库208内容的ICN路由节点的形式连接到EP 数据库208。在一些示例中,ICN通过使EP数据库208更靠近在实现编排器 202、能力控制器204、遥测控制器206和/或(多个)资源210的上下文中, 寻求读/写的其他EP节点来优化对EP数据库208的访问。
在图2中所图示的示例中,编排器202、能力控制器204、遥测控 制器206、EP数据库和(多个)资源210被包括在边缘平台200中、与边缘平 台200相对应、和/或以其他方式代表边缘平台200。然而在一些示例中,编排 器202、能力控制器204、遥测控制器206、EP数据库208和(多个)资源210 中的一个或多个可以包括在包括边缘平台200的边缘环境(例如,边缘云110) 中而不是被包括在边缘平台200中。例如,编排器202可以连接到端点层(例 如,端点层120)、边缘设备层(例如,边缘设备层130)、网络接入层(例如, 网络接入层140)、核心网络层(例如,核心网络层150)和/或云数据中心层(例如,云数据中心层160)的同时在边缘平台200之外。
在其他示例中,编排器202、能力控制器204、遥测控制器206、EP 数据库208和(多个)资源210中的一个或多个是包括在边缘环境中的单独设 备。此外,编排器202、能力控制器204、遥测控制器206、EP数据库208和 (多个)资源210中的一个或多个可以被包括在边缘设备层(例如,边缘设备 层130)中,网络接入层(例如,网络接入层140)、核心网络层(例如,核 心网络层150)和/或云数据中心层(例如,云数据中心层160)。例如,编排 器202可以被包括在边缘设备层(例如,边缘设备层130)中,或者(多个) 资源210可以被包括在网络接入层(例如,网络接入层140)中、核心网络层 (例如,核心网络层150)和/或云数据中心层(例如,云数据中心层160)。
在一些示例中,响应于来自客户端计算平台(例如,客户端计算平 台102a、102b、102c、102d、102e、102f之一)和/或边缘平台的执行工作负荷 的请求,编排器202分析请求以确定来自客户端计算平台(例如,边缘平台) 的工作负荷的操作参数。在一些示例中,编排器202可以接收多个请求并且可 以对请求进行去重复(de-duplicate)。即,编排器202可以接收执行“工作负 荷A”的多个请求。编排器202不是分析对“工作负荷A”的所有请求,而是分析 对“工作负荷A”的请求之一并且可以将结果填充到对“工作负荷A”的剩余请求 以节省资源(例如,热资源、计算资源等)。
为了确定操作参数,所示示例的编排器202导出操作参数所需的因 素子集。在一些示例中,编排器202导出因素子集,该因素子集包括安全性级 别、准确性级别、边缘平台对其他微服务的依赖关系、边缘环境中依赖关系的 位置、边缘平台的使用信息或边缘平台和/或工作负荷的服务水平协议(SLA) 属性。编排器202可以从查找表中导出因素的子集以节省计算资源。例如,编 排器202可以接收对“工作负荷A”的请求并在表中查找“工作负荷A”并确定包 括执行“工作负荷A”或服务水平协议(SLA)属性所需的指定安全性级别的因素子集。
在一些示例中,当确定操作参数时,编排器202估计边缘平台和/ 或工作负荷的资源需求。资源需求包括基于因素子集的工作负荷的功率测量、 热测量、等待时间测量和/或带宽测量。例如,编排器202从查找表中确定因素 子集并估计满足因素子集所需的资源需求。所示示例的编排器202基于更新的 操作参数或因素子集来更新资源需求。
通过确定候选边缘层和边缘平台布置中的每一个的资源可用性,所 示示例的编排器202基于操作参数来分析(多个)请求的候选边缘层和边缘平 台布置。在一些示例中,资源可用性对应于基于来自候选边缘层和边缘平台布 置中的每一个的遥测数据的候选边缘层和边缘平台布置中的每一个处的功率 可用性、热可用性、等待时间可用性和/或带宽可用性中的一个或多个。在所示 示例中,编排器202与能力控制器204通信以确定资源可用性。能力控制器204 确定边缘平台200、工作负荷(例如,微云)和其他(多个)边缘平台200的能力。例如,能力控制器204生成边缘平台200处的能力数据(例如,热资源、 功率资源、带宽资源、硬件资源、存储资源、网络资源、软件资源等)。例如, 能力控制器204可以基于能力数据来确定分配给边缘平台200的(多个)资源 210(诸如硬件资源(例如,计算、网络、安全、存储等,硬件资源)、软件 资源(例如,防火墙、负荷平衡器、虚拟机(VM)、访客操作系统(OS)、应用、 管理程序等)等,和/或其组合),根据这些资源可以执行边缘计算工作负荷(例 如,注册的工作负荷)。在一些示例中,能力控制器204可以确定在边缘平台 200处供应和/或执行的容器。例如,能力控制器204可以标识与在边缘平台200 处供应的容器和/或分配给在边缘平台200处的容器的资源相关联的微服务。
在一些示例中,能力控制器204从EP数据库208检索能力数据。 例如,当编排器202接收到执行工作负荷的请求时,编排器202通过访问能力 控制器204和/或EP数据库208来标识边缘平台200的能力是否包括用于完成 工作负荷任务的(多个)适当资源。例如,编排器202接收执行需要具有两个 核的处理器的工作负荷的请求,编排器202可以访问能力控制器204和/或EP 数据库208以确定边缘平台200是否包括处理请求的工作负荷的能力。即,编 排器202访问能力控制器204来确定资源可用性以标识请求(例如,工作负荷) 的候选边缘层和边缘平台布置。
在图2的示例中,能力控制器204另外确定分配给边缘平台200的 新资源和/或附加资源的能力。例如,如果边缘平台200由边缘服务提供商升级 以包括附加计算资源、存储资源和/或者网络资源,则能力控制器204可以注册 附加资源并生成与附加资源相关联的能力数据。在一些示例中,能力控制器204 可以生成和/或传输协议以将边缘平台200处的资源(例如,(多个)资源210) 与编排器202、遥测控制器206和/或EP数据库208中的一个或多个对接。
在图2所图示的示例中,遥测控制器206基于与边缘计算环境中的 边缘平台相关联的遥测数据来改进边缘计算工作负荷(例如,在边缘平台之间) 的分布和执行。例如,能力控制器206可以基于遥测数据来确定第一边缘平台 和/或第二边缘平台具有(多个)资源210中的一个(或多个)可用资源(诸如 硬件资源(例如,计算、网络、安全、存储(例如,非易失性存储器快速)等, 硬件资源)、软件资源(例如,防火墙、负荷平衡器、虚拟机(VM)、访客操作 系统(OS)、应用、管理程序等)等,和/或其组合),根据这些资源可以执行边 缘计算工作负荷。在此类示例中,遥测数据可以包括与边缘平台(例如,边缘 平台200和/或替代边缘平台)中的至少一个边缘平台的(多个)资源210中的 一个(或多个)资源相关联的利用率(例如,被利用或未被利用的资源的百分 比)、接收服务的延迟(例如,平均延迟)(例如,等待时间)、资源可用(例 如,带宽、吞吐量等)的速率(例如,平均速率)、功率消耗、温度等。
为了基于满足操作参数的候选边缘层和边缘平台布置来确定边缘 平台(例如,工作负荷或微云)的候选边缘层和边缘平台布置,编排器202确 定用于每个候选边缘层和边缘平台布置的操作参数百分比。所图示示例的操作 参数百分比与满足边缘平台的资源需求的边缘层和边缘平台布置的资源可用 性的百分比相对应。例如,编排器202可以接收执行需要具有两个核的处理器 的工作负荷的请求。在该示例中,编排器202可以访问能力控制器204和/或 EP数据库208以确定候选边缘层和边缘平台布置中的每一个的操作参数百分 比。在该示例中,编排器202可以确定一个候选边缘层和边缘平台布置具有 100%的操作参数百分比(即,具有含有两个核的处理器),并且剩余候选边 缘层和边缘平台布置具有0%的操作参数百分比(即,不具有含有两个核的处 理器)。所图示示例的编排器202选择具有最佳操作参数百分比的边缘层和边 缘平台布置作为候选边缘层和边缘平台布置,并在候选边缘层和边缘平台布置 处实施工作负荷。在一些示例中,编排器202通过组合数个期望的操作参数(诸 如i)可用,ii)可用且最近,iii)可用、最近且最便宜,iv)可用、最便宜且足够接 近等)并确定与边缘层和边缘平台布置相关联的百分比(包括期望的操作参数),来确定最佳操作参数百分比。例如,编排器202可以确定候选边缘层和边缘平 台布置是边缘环境中最近的、可用的并且是最便宜的。因此,编排器202可以 确定高于其他最佳操作参数百分比(例如,不可用、更昂贵的边缘层布置等)的 最佳操作参数百分比。
在一些示例中,响应于每个候选边缘层和边缘平台布置的操作参数 百分比不满足阈值(例如,小于70%、小于40%等),编排器202调节资源需 求和成本函数权重。例如,编排器202可以通过降低操作参数百分比阈值、降 低与可以花费多少钱来在特定候选边缘层和边缘平台布置处执行工作负荷相 关联的成本函数等来调节资源需求。然而,编排器202可以确定在阈值次数的 迭代(例如,资源需求和成本函数调节)之后,请求被标识为不能在边缘环境 中处理。例如,与执行工作负荷相关联的成本不满足成本函数阈值。在一些示 例中,成本函数是降低最佳操作参数百分比的惩罚因子。例如,成本函数对应 于超过等待时间、抖动、错误率、分组丢弃、网络带宽消耗等统计阈值的惩罚。
在图2所示的示例中,边缘平台200包括EP数据库208以记录数 据(例如,遥测数据、工作负荷、能力数据、资源可用性等)。EP数据库208可 以由易失性存储器(例如,同步动态随机存取存储器(SDRAM)、动态随机 存取存储器(DRAM)、RAMBUS动态随机存取存储器(RDRAM)等)和/ 或非易失性存储器(例如,闪存存储器)实现。EP数据库208可以附加地或替代地由双倍数据速率(DDR)存储器(诸如DDR、DDR2、DDR3、DDR4、 移动DDR(mDDR)等)来实现。EP数据库208可以附加地或替代地由一个 或多个大容量存储设备(诸如(多个)硬盘驱动器、(多个)紧凑盘驱动器、 (多个)数字多功能盘驱动器、(多个)固态盘驱动器等)实现。虽然在图示 出的示例中EP数据库208被示出为单个数据库,但是EP数据库208可以由 任何数量和/或(多个)类型的数据库来实现。此外,EP数据库208中所存储 的数据可以采用任何数据格式,诸如例如,二进制数据、逗号分隔的数据、制 表符分隔的数据、结构化查询语言(SQL)结构等。
在图2的所图示的示例中,调用(多个)资源210来执行获得自客 户端计算平台的工作负荷(例如,边缘计算工作负荷)。例如,(多个)资源210可以与边缘节点或其(多个)部分相对应和/或以其他方式代表边缘节点或 其(多个)部分。例如,编排器202、能力控制器204、遥测控制器206、EP 数据库208、和/或更一般地,边缘平台200可以调用(多个)资源210中相应 的资源来执行一个或多个边缘计算工作负荷。
在一些示例中,(多个)资源210代表硬件资源、硬件资源的虚拟 化、软件资源、软件资源的虚拟化等、和/或其组合。例如,(多个)资源210 可以包括、对应于、和/或以其他方式代表一个或多个CPU(例如,多核CPU)、 一个或多个FPGA、一个或多个GPU、一个或多个网络接口卡(NIC)、一个 或多个视觉处理单元(VPU)等、和/或任何其他类型的硬件或硬件加速器。在 此类示例中,(多个)资源210可以包括、对应于、和/或以其他方式代表一个 或多个CPU、一个或多个FPGA、一个或多个GPU、一个或多个NIC等的(多 个)虚拟化。在其他示例中,编排器202、能力控制器204、遥测控制器206、 EP数据库208、(多个)资源210、和/或更一般地,边缘平台200可以包括、 对应于、和/或以其他方式代表一个或多个软件资源、软件资源的虚拟化等(诸 如管理程序、负荷平衡程序、OS、VM等)、或其组合。
在一些示例中,响应于来自客户端计算平台(例如,客户端计算平 台102a、102b、102c、102d、102e、102f中的一个)的执行工作负荷的请求, 编排器202与(多个)资源210中的至少一个资源和客户端计算平台(例如, 客户端计算平台102a、102b、102c、102d、102e、102f中的一个)通信以创建 与要执行的工作负荷的描述相关联的合同(例如,工作负荷合同)。客户端计 算平台(例如,客户端计算平台102a、102b、102c、102d、102e、102f中的一个)向编排器202提供与合同相关联的任务和工作负荷的描述,并且编排器202 调度该任务在边缘平台处执行。任务可以包括合同以及要执行的工作负荷的描 述。在一些示例中,任务包括获得和/或以其他方式分配用于执行工作负荷的资 源的请求。
虽然图2示出了实现图1的边缘平台200的示例方式,但图2所示 的元件、进程和/或设备中的一个或多个可以被组合、拆分、重新设置、省略、 消除和/或以任何方式被实现。此外,图2的示例编排器202、示例能力控制器 204、示例遥测控制器206、示例EP数据库208、示例(多个)资源210和/ 或更一般地,示例边缘平台200可由硬件、软件、固件、和/或硬件、软件和/ 或固件的任何组合来实现。因此,例如,示例编排器202、示例能力控制器204、 示例遥测控制器206、示例EP数据库208、示例(多个)资源210和/或更一 般地,示例边缘平台200中的任一者可以由一个或多个模拟或数字电路、逻辑 电路、(多个)可编程处理器、(多个)可编程控制器、(多个)图形处理单 元(GPU)、(多个)数字信号处理器(DSP)、(多个)专用集成电路(ASIC)、 (多个)可编程逻辑器件(PLD)和/或(多个)现场可编程逻辑器件(FPLD)来实现。当阅读涵盖纯软件和/或固件实现的本专利的装置或系统权利要求中的 任一个时,示例编排器202、示例能力控制器204、示例遥测控制器206、示例 EP数据库208、示例(多个)资源210和/或更一般地,示例边缘平台200中 的至少一个由此被显式地限定为包括包含软件和/或固件的非瞬态计算机可读 存储设备或存储盘(例如,存储器、数字多功能盘(DVD)、紧凑盘(CD)、 蓝光盘等等)。更进一步地,除了图2中所图示的那些元件、过程和/或设备之 外或者作为图2中所图示的那些元件、过程和/或设备的替代,图2的示例边缘 平台200还可包括一个或多个元件、过程和/或设备,和/或可包括所图示的元 件、过程和/或设备中任一者或全部中的多于一个的元件、过程和/或设备。如 本文所使用,短语“进行通信”(包括其各种变体)包含直接通信和/或通过一个 或多个中间组件的间接通信,并且不需要直接的物理(例如,有线)通信和/ 或持续通信,而是附加地包括以周期性间隔、预定间隔、非周期性间隔、和/ 或一次性事件来进行的选择性通信。
在图3-图6中示出了表示用于实现边缘平台200的示例硬件逻辑、 机器可读指令、硬件实现的状态机和/或其任何组合的流程图。机器可读指令可 以是用于由计算机处理器和/或处理器电路执行的一个或多个可执行程序或可 执行程序的(多个)部分,计算机处理器和/或处理器电路诸如下文结合图7 所讨论的示例处理器平台700中示出的处理器712。程序可被具体化在存储于 与处理器712相关联的诸如CD-ROM、软盘、硬驱动器、DVD、蓝光盘或存 储器之类的非瞬态计算机可读存储介质上的软件中,但是整个程序和/或其部分 可替代地由除处理器712之外的设备执行,和/或被具体化在固件或专用硬件中。 进一步地,虽然参考图3-图6所图示的流程图描述了示例程序,但是可替代地 使用实现示例边缘平台200的许多其他方法。例如,可改变框的执行次序,和 /或可改变、消除或组合所描述的框中的一些框。附加地或替代地,框中的任何 框或所有框可以由被构造成在不执行软件或固件的情况下执行相应的操作的 一个或多个硬件电路(例如,分立的和/或集成的模拟和/或数字电路系统、FPGA、 ASIC、比较器、运算放大器(op-amp)、逻辑电路等)来实现。处理器电路系统可以分布在不同的网络位置和/或位于一个或多个设备的本地(例如,单个 机器中的多核处理器、跨服务器机架分布的多个处理器等)。
本文中描述的机器可读指令能以压缩格式、加密格式、分段格式、 编译格式、可执行格式、封装格式等中的一种或多种来存储。本文描述的机器 可读指令可以作为可用于创建、制造和/或产生机器可执行指令的数据或数据结 构(例如,指令的部分、代码、代码表示等)来存储。例如,机器可读指令可 以被分段并被存储在位于网络或网络集合(例如,在云中、在边缘设备中等) 中的相同或不同位置的一个或多个存储设备和/或计算设备(例如,服务器)上。 机器可读指令可能需要安装、修改、适配、更新、组合、补充、配置、解密、 解压缩、拆包、分发、重新分配、编译等中的一项或多项,以使得它们由计算 设备和/或其他机器直接可读取、可解释、和/或可执行。例如,机器可读指令 可以存储在多个部分中,这些部分被单独压缩、加密并存储在单独的计算设备 上,其中,这些部分在被解密、解压缩和组合时形成实现如本文所述的实现可 以一起形成程序的一个或多个功能的指令的一组可执行指令。
在另一示例中,机器可读指令可以以它们可被处理器电路读取 的状态存储,但是需要添加库(例如,动态链接库(DLL))、软件开发工具 包(SDK)、应用编程接口(API)等,以便在特定的计算设备或其他设备上 执行指令。在另一个示例中,在可整体或部分地执行机器可读指令和/或对应的 (多个)程序之前,可能需要配置机器可读指令(例如,存储的设置、数据输 入、记录的网络地址等)。因此,如本文所使用,机器可读介质可以包括机器 可读指令和/或(多个)程序,而不管机器可读指令和/或(多个)程序在存储 时或以其他方式处于静态或在传输中时的特定格式或状态如何。
本文所描述的机器可读指令可以由任何过去、现在或将来的指 令语言、脚本语言、编程语言等表示。例如,机器可读指令可以用以下语言中 的任何一种语言来表示:C、C++、Java、C#、Perl、Python、JavaScript、超文 本标记语言(HTML)、结构化查询语言(SQL)、Swift等。
如上文所提及,可使用存储于非瞬态计算机和/或机器可读介质 上的可执行指令(例如,计算机和/或机器可读指令)实现图7的示例过程,非 瞬态计算机和/或机器可读介质诸如,硬盘驱动器、闪存、只读存储器、紧凑盘、 数字多功能盘、高速缓存、随机存取存储器和/或在其中存储信息达任何持续时 间(例如,扩展的时间段、永久地、简短的情况、用于临时缓冲和/或用于对信 息进行高速缓存)的任何其他存储设备或存储盘。如本文中所使用,术语非瞬 态计算机可读介质被明确地定义为包括任何类型的计算机可读存储设备和/或 存储盘,并且排除传播信号且排除传输介质。
“包含”和“包括”(及其所有形式和时态)在本文中用作开放式 术语。因此,每当权利要求将任何形式的“包含”和“包括”(例如,包括、包含、 包括有、包含有、具有等)用作前序部分或用于任何种类的权利要求记载内容 之中时,要理解的是,附加的要素、项等可以存在而不落在对应权利要求或记 载的范围之外。如本文中所使用,当短语“至少”被用作例如权利要求的前序部 分中的过渡术语时,它是和术语“包含”和“包括”一样的开放式的。当例如以诸 如A、B和/或C之类的形式被使用时,术语“和/或”指的是A、B、C的任何组 合或子集,诸如(1)单独的A、(2)单独的B、(3)单独的C、(4)A与 B、(5)A与C、(6)B与C、以及(7)A与B及与C。如本文中在描述结 构、组件、项、对象和/或事物的上下文中所使用,短语“A和B中的至少一个” 旨在表示包括(1)至少一个A、(2)至少一个B、和(3)至少一个A和至 少一个B中的任何一项的实现。类似地,如本文中在描述结构、组件、项、对 象和/或事物的上下文中所使用,短语“A或B中的至少一个”旨在表示包括(1) 至少一个A、(2)至少一个B、和(3)至少一个A和至少一个B中的任何一 项的实现。如本文中在描述过程、指令、动作、活动和/或步骤的处理或执行的 上下文中所使用,短语“A和B中的至少一个”旨在表示包括(1)至少一个A、(2)至少一个B、和(3)至少一个A和至少一个B中的任何一项的实现。 类似地,如本文中在描述过程、指令、动作、活动和/或步骤的处理或执行的上 下文中所使用,短语“A或B中的至少一个”旨在表示包括(1)至少一个A、(2)至少一个B、和(3)至少一个A和至少一个B中的任何一项的实现。
如本文所使用,单数引用(例如,“一个(a、an)”、“第一”、“第 二”等)不排除复数。本文所使用的术语“一个(a或an)”实体是指一个或多个 该实体。术语“一个(a)”(或“一个(an)”)、“一个或多个”和“至少一个”在 本文中可以可互换地使用。此外,尽管单独列出,但多个装置、元件或方法动 作可由例如单个单元或处理器来实现。另外,虽然各个特征可以被包括在不同 的示例或权利要求中,但是这些特征可能被组合,并且在不同的示例或权利要 求中的包含并不意味着特征的组合是不可行和/或不是有利的。
图3是表示可以被执行以实现图2的示例边缘平台200的示例 机器可读指令300的流程图。机器可读指令300开始于框302,其中编排器202 接收执行来自边缘环境内的边缘平台的工作负荷的请求。
在框304,编排器202分析请求以确定来自边缘平台的工作负荷 的操作参数。例如,编排器202导出操作参数所需的因素子集。
在框306,编排器基于操作参数来分析候选边缘层和边缘平台布 置。例如,通过确定候选边缘层和边缘平台布置中的每一个的资源可用性,所 示示例的编排器202基于操作参数来分析(多个)请求的候选边缘层和边缘平 台布置。
在框308,编排器基于满足工作负荷需求和操作参数的候选边缘 层和边缘平台布置来确定工作负荷的候选边缘层和边缘平台布置。例如,编排 器202为候选边缘层和边缘平台布置中的每一个确定操作参数百分比。所图示 示例的操作参数百分比与满足工作负荷的资源需求的边缘层和边缘平台布置 的资源可用性的百分比相对应。例如,编排器202可以接收执行需要具有两个 核的处理器的工作负荷的请求。在该示例中,编排器202可以访问能力控制器 204和/或EP数据库208以确定候选边缘层和边缘平台布置中的每一个的操作 参数百分比。在该示例中,编排器202可以确定一个候选边缘层和边缘平台布 置具有100%的操作参数百分比(即,具有含有两个核的处理器),并且剩余 候选边缘层和边缘平台布置具有0%的操作参数百分比(即,不具有含有两个 核的处理器)。所图示示例的编排器202选择具有最佳操作参数百分比的边缘 层和边缘平台布置作为候选边缘层和边缘平台布置,并在候选边缘层和边缘平 台布置处实施工作负荷。在一些示例中,响应于每个候选边缘层和边缘平台布 置的操作参数百分比不满足阈值(例如,小于70%、小于40%等),编排器 202调节资源需求和成本函数权重。例如,编排器202可以通过降低操作参数 百分比阈值、降低与可以花费多少钱相关联的成本函数、或者可以容忍多少数 据丢失或者可以招致多少等待时间等来调节资源需求,以在特定候选边缘层和 边缘平台布置等处执行工作负荷。然而,编排器202可以确定在阈值次数的迭 代(例如,资源需求和成本函数调节)之后,请求被标识为不能在边缘环境中 处理。例如,与执行工作负荷相关联的成本不满足成本函数阈值。机器可读指 令300终止。
图4是表示示例机器可读指令304的流程图,该指令304可以 被执行来实现图2的示例编排器202以分析请求来确定来自边缘平台的工作负 荷的操作参数。机器可读指令304开始于框402,在框402处,编排器202导 出操作参数所需的因素子集。例如,编排器202导出因素子集,该因素子集 包括安全性级别、准确性级别、工作负荷对其他微服务的依赖关系、边缘环境 中依赖关系的位置、工作负荷的使用信息或工作负荷的服务水平协议(SLA) 属性。编排器202可以从查找表中导出因素子集以节省计算资源。例如,编排 器202可以接收对“工作负荷A”的请求并在表中查找“工作负荷A”并确定包括 执行“工作负荷A”或服务水平协议(SLA)属性所需的指定安全性级别的因素子 集。
在框404,编排器202基于因素子集来估计工作负荷的资源需求。 例如,编排器202基于因素子集来估计用于处理工作负荷的每个边缘平台的工 作负荷的资源需求,包括例如功率测量、热测量、等待时间测量和/或带宽测量。 例如,编排器202从查找表中确定因素子集并估计满足因素子集所需的资源需 求。
在框406,编排器202确定更新的操作参数是否可用。例如,所 示示例的编排器202基于更新的操作参数或因素子集来更新资源需求。如果编 排器标识出更新的操作参数可用,则机器可读指令304进行到框402以导出操 作参数所需的因素子集。例如,编排器202可以标识更新的SLA属性并继续 导出更新的SLA属性所需的更新的因素子集。如果编排器202确定没有可用 的更新操作参数,则机器可读指令304返回并进行到框306。
图5是表示示例机器可读指令306的流程图,该指令306可以 被执行来实现图2的示例编排器202以基于操作参数来分析候选边缘层和边缘 平台布置。机器可读指令306开始于框502,在框502处,编排器202从候选 边缘层和边缘平台布置中的每一个接收遥测数据。例如,编排器202可以基于 确定的边缘层和边缘平台布置决策、实际测量(可能将时间向过去推移少量) 和来自正在进行的请求布置决策的预计利用率来接收与不同节点的预计未来 利用率相对应的遥测数据。
在框504处,编排器202确定候选边缘层和边缘平台布置中的 每一个的资源可用性。例如,资源可用性对应于基于来自候选边缘层和边缘平 台布置中的每一个的遥测数据的候选边缘层和边缘平台布置中的每一个处的 功率可用性、热可用性、等待时间可用性和/或带宽可用性。在一些示例中,编 排器202与能力控制器204通信以确定资源可用性。
在框506,编排器202确定更新的遥测数据是否可用。如果编排 器202确定更新的遥测数据可用,则机器可读指令306进行到框502以从候选 边缘层和边缘平台布置中的每一个接收遥测数据。如果编排器202确定更新的 操遥测数据不可用,则机器可读指令304返回并进行到框308。
图6是表示示例机器可读指令308的流程图,该指令308可以 被执行来实现图2的示例编排器202以基于满足工作负荷需求和操作参数的候 选边缘层和边缘平台布置来确定工作负荷的候选边缘层和边缘平台布置。机器 可读指令308开始于框602,在框602处,编排器202确定每个候选边缘层和 边缘平台布置的操作百分比。例如,编排器202为候选边缘层和边缘平台布置 中的每一个确定操作参数百分比。所图示示例的操作参数百分比与满足边缘平 台的资源需求的边缘层和边缘平台布置的资源可用性的百分比相对应。例如,编排器202可以接收执行需要具有两个核的处理器的工作负荷的请求。在该示 例中,编排器202可以访问能力控制器204和/或EP数据库208以确定候选边 缘层和边缘平台布置中的每一个的操作参数百分比。在该示例中,编排器202 可以确定一个候选边缘层和边缘平台布置具有100%的操作参数百分比(即, 具有含有两个核的处理器),并且剩余候选边缘层和边缘平台布置具有0%的 操作参数百分比(即,不具有含有两个核的处理器)。在一些示例中,编排器 202可以确定候选边缘层和边缘平台布置是边缘环境中最近的、可用的并且是 最便宜的。因此,编排器202可以确定高于其他最佳操作参数百分比(例如, 不可用、更昂贵的边缘层布置等)的最佳操作参数百分比。
在框604,编排器202选择具有最佳操作参数百分比的边缘层和 边缘平台布置作为候选边缘层和边缘平台布置。
在框606,编排器202确定操作参数百分比是否满足阈值。例如, 所示示例的编排器202选择具有最佳操作参数百分比(例如,70%,所需操作 参数的最大聚合等)的边缘层和边缘平台布置,并将操作参数百分比与阈值进 行比较(例如,75%、80%、90%等)。如果编排器202确定操作参数百分比 满足阈值,则机器可读指令308进行到框608并且编排器202在候选层边缘布 置处实现工作负荷。
如果编排器202确定操作参数百分比不满足阈值,则机器可读 指令308进行到框610以确定迭代次数是否低于阈值。例如,每次由编排器202 接收和处理请求以确定边缘层和边缘平台布置时,确定迭代计数。例如,编排 器202可以在第一迭代期间接收并处理第一请求并确定候选边缘层和边缘平台 布置。因此,请求将包括迭代计数1。即,编排器202能够确定在第一迭代期 间满足请求的SLA属性的边缘层和边缘平台布置。如果编排器202确定迭代 次数不低于阈值(例如,5、8、12等),则机器可读指令308结束。例如,由于 与执行工作负荷相关联的成本高于成本函数阈值(例如,无法满足SLA属性), 因此迭代次数超过了阈值。
如果编排器202确定迭代次数低于阈值,则机器可读指令308 进行到框612并增加迭代计数。
在框614,编排器202调节资源需求和成本函数权重。例如,编 排器202可以通过降低操作参数百分比阈值、增加与可以花费多少钱来在特定 候选边缘层和边缘平台布置处执行工作负荷相关联的成本函数等来调节资源 需求。在一些示例中,编排器202增加可被花费来在候选边缘层和边缘平台布 置处实现工作负荷的资金量。例如,编排器202可以在框614处更新成本函数 权重(例如,增加可以花费的金钱量、增加可以使用的资源量、增加可以使用 的边缘平台的量等)并返回到框602。机器可读指令308或者在实现工作负荷之后返回到机器可读指令300,或者在迭代次数被超过时结束。
图7是被构造用于执行图3-6的指令以实现边缘系统200的示 例处理器平台700的框图。处理器平台700可以是例如,服务器、个人计算机、 工作站、自学习机(例如,神经网络)、移动设备(例如,手机、智能电话、 诸如iPadTM之类的平板)、个人数字助理(PDA)、互联网设备、DVD播放 器、CD播放器、数字视频记录仪、蓝光播放器、游戏控制台、个人视频记录仪、机顶盒、耳机或其他可穿戴设备、或任何其他类型的计算设备。
所图示示例的处理器平台700包括处理器712。所图示示例的处 理器712是硬件。例如,处理器712可以由来自任何所期望的系列或制造商的 一个或多个集成电路、逻辑电路、微处理器、GPU、DSP或控制器实现。硬件 处理器可以是基于半导体的(例如,硅基)器件。在该示例中,处理器实现示 例编排器202、示例能力控制器204、示例遥测控制器206、示例EP数据库208、 (多个)示例资源210和/或更一般地,示例边缘平台200。
所图示示例的处理器712包括本地存储器713(例如,高速缓存)。 所图示示例的处理器712经由总线718而与包括易失性存储器714和非易失性 存储器716的主存储器进行通信。易失性存储器714可由同步动态随机存取存 储器(SDRAM)、动态随机存取存储器(DRAM)、
Figure BDA0003227545820000321
动态随机存 取存储器
Figure BDA0003227545820000322
和/或任何其他类型的随机存取存储器设备实现。非易 失性存储器716可由闪存和/或任何其他所期望类型的存储器设备实现。由存储 器控制器控制对主存储器714、716的访问。
所图示示例的处理器平台700还包括接口电路720。接口电路 720可由任何类型的接口标准实现,诸如以太网接口、通用串行总线(USB)、
Figure BDA0003227545820000323
接口、近场通信(NFC)接口和/或PCI express(PCI快速)接口。
在所图示的示例中,一个或多个输入设备722被连接至接口电 路720。(多个)输入设备722准许用户将数据和/或命令输入到处理器712中。 (多个)输入设备可以由例如音频传感器、话筒、(静止的或视频)相机、键 盘、按钮、鼠标、触摸屏、轨迹板、轨迹球、等点鼠标和/或语音识别系统实现。
一个或多个输出设备724也被连接至所图示示例的接口电路720。输出设备724可例如由显示设备(例如,发光二极管(LED)、有机发 光二极管(OLED)、液晶显示器(LCD)、阴极射线管显示器(CRT)、面 内切换(IPS)显示器、触摸屏等)、触觉输出设备、打印机和/或扬声器实现。 因此,所图示示例的接口电路720典型地包括图形驱动器卡、图形驱动器芯片和/或图形驱动器处理器。
所图示示例的接口电路720还包括诸如发射机、接收机、收发 机、调制解调器、住宅网关、无线接入点、和/或网络接口之类的通信设备,以 促进经由网络726与外部机器(例如,任何种类的计算设备)交换数据。通信 可以经由例如以太网连接、数字订户线路(DSL)连接、电话线连接、同轴电 缆系统、卫星系统、直线对传式无线系统、蜂窝电话系统等。
所图示示例的处理器平台700还包括用于存储软件和/或数据的 一个或多个大容量存储设备728。此类大容量存储设备728的示例包括软盘驱 动器、硬驱动器盘、紧凑盘驱动器、蓝光盘驱动器、独立磁盘冗余阵列(RAID) 系统、以及数字多功能盘(DVD)驱动器。
图3-图6的机器可执行指令732可以被存储在大容量存储设备 728中,存储在易失性存储器714中,存储在非易失性存储器716中,和/或存 储在诸如CD或DVD之类的可移除非瞬态计算机可读存储介质上。
图8图示了图示将诸如图7的示例计算机可读指令732之类的 软件分发给第三方的示例软件分发平台805的框图。示例软件分发平台805可 以由能够存储软件并将软件传送到其他计算设备的任何计算机服务器、数据设 施、云服务等来实现。第三方可以是拥有和/或操作软件分发平台的实体的客户。 例如,拥有和/或操作软件分发平台的实体可以是软件(诸如图7的示例计算机 可读指令732)的开发者、销售者、和/或许可者。第三方可以是消费者、用户、 零售商、OEM等,他们购买和/或许可软件以用于使用和/或转售和/或分许可。 在所图示的示例中,软件分发平台805包括一个或多个服务器和一个或多个存 储设备。存储设备存储计算机可读指令732,该计算机可读指令732可以与图 3-图6的示例计算机可读指令300相对应,如上文所描述。示例软件分发平台 805的一个或多个服务器与网络810通信,该网络810可以与互联网和/或上文 所述示例网络中的任一个的任何一个或多个相对应。在一些示例中,作为商业 事务的一部分,一个或多个服务器响应于将软件传送到请求方的请求。可以由 软件分发平台的一个或多个服务器和/或经由第三方支付实体来处理用于软件 的交付、销售、和/或许可的支付。服务器使购买者和/或许可者能够从软件分发平台805下载计算机可读指令732。例如,软件(其可与图7的示例计算机 可读指令732相对应)可被下载到示例处理器平台1000,该示例处理器平台用 于执行计算机可读指令732以实现边缘平台200。在一些示例中,软件分发平 台805的一个或多个服务器周期性地提供、传送和/或强制进行软件(例如,图 7的示例计算机可读指令732)更新以确保改善、补丁、更新等被分发并应用 于端用户设备处的软件。
图9是示出用于边缘计算的配置的概览的框图900,该配置包括 在以下许多示例中被称为“边缘云”的处理层。如图所示,边缘云910共同定位 在边缘位置(诸如接入点或基站940、本地处理中枢950、或中央局920),并 且因此可以包括多个实体、设备、和装备实例。与云数据中心930相比,边缘 云910被定位成更靠近端点(消费者和生产者)数据源960(例如,自主交通 工具961、用户装备962、商业和工业装备963、视频捕获设备964、无人机965、智慧城市和建筑设备966、传感器和IoT设备967等)。在边缘云910中的边 缘处提供的计算、存储器、和存储资源对于为由端点数据源960使用的服务和 功能提供超低等待时间的响应时间以及减少从边缘云910朝向云数据中心930 的网络回程通信量(由此改善能耗和整体网络使用等益处)至关重要。在一些 示例中,边缘平台200可被实现在边缘云910中。在一些示例中,上面结合图 1-图8描述的边缘平台200可以实现为以下中的任一个:接入点或基站940、 本地处理中枢950、中央局920、数据源960(例如,自主交通工具961、用户 装备962、商业和工业装备963、视频捕获设备964、无人机965、智慧城市和 建筑设备966、传感器和IoT设备967等)、或云数据中心930。在一些示例 中,边缘平台200可利用图9-图15B中公开的示例被实现。
计算、存储器、和存储是稀缺资源,并且通常根据边缘位置而 减少(例如,在消费者端点设备上可用的处理资源比在基站上、在中央局处可 用的处理资源更少)。然而,边缘位置越靠近端点(例如,用户装备(UE)), 空间和功率通常就越受限。因此,边缘计算尝试通过分配被定位成既在地理上 更靠近又在网络接入时间上更靠近的更多的资源来减少网络服务所需的资源 量。以该方式,边缘计算尝试在适当的情况下将计算资源带到工作负荷数据, 或者,将工作负荷数据带到计算资源。
以下描述了边缘云架构的各方面,该架构涵盖多种潜在的部署, 并解决了一些网络运营商或服务提供商在其本身的基础设施中可能具有的限 制。这些包括以下各项的变体:基于边缘位置的各种配置(例如,因为处于基 站级别的边缘在多租户场景中可能具有更受限制的性能和能力);基于边缘位 置、位置的层、或位置的组可用的计算、存储器、存储、结构、加速等资源的 类型的配置;服务、安全性、以及管理和编排能力;以及实现端服务的可用性 和性能的相关目标。这些部署可以在网络层中完成处理,取决于等待时间、距离、和定时特征,这些网络层可以被视为“接近边缘”、“靠近边缘”、“本地边缘”、 “中间边缘”、或“远边缘”层。
边缘计算是一种开发范式,其中计算在网络的“边缘”处或靠近 于网络的“边缘”被执行,典型地通过使用在基站、网关、网络路由器、或(例 如,在“本地边缘”、“靠近边缘”、或“接近边缘”处)更靠近于产生和消耗数 据的端点设备的其他设备处实现的计算平台(例如,x86或ARM计算硬件架 构)来执行。例如,边缘网关服务器可装配有存储器池和存储资源,以针对连 接的客户端设备的低等待时间用例(例如,自主驾驶或视频监测)实时地执行计算。或者作为示例,基站可被扩充有计算和加速资源,以直接为连接的用户 装备处理服务工作负荷,而无需进一步经由回程网络传输数据。或者作为另一 示例,可用执行虚拟化网络功能并为服务的执行提供计算资源并且为连接的设 备提供消费者功能的标准化计算硬件来代替中央局网络管理硬件。在边缘计算 网络内,可能存在计算资源“被移动”到数据的服务中的场景,以及其中数据“被 移动”到计算资源的场景。或者作为示例,基站计算、加速和网络资源可以提 供服务,以通过激活休眠容量(订阅、按需容量)来根据需要扩展工作负荷需 求,以管理极端情况、紧急情况或为部署的资源在显著更长的实现的生命周期 中提供长寿命。
图10图示出端点、边缘云和云计算环境之间的操作层。具体而 言,图10描绘了在网络计算的多个说明性层之间利用边缘云910的计算用例1005的示例。这些层从端点(设备和事物)层1000开始,该层1000访问边缘 云910以进行数据创建、分析、和数据消费活动。边缘云910可以跨越多个网 络层(诸如具有网关、内部(on-premise)服务器或位于物理上邻近边缘系统中的 网络设备(节点1015)的边缘设备层1010);网络接入层1020,该网络接入层1020涵盖基站、无线电处理单元、网络中枢、区域数据中心或本地网络装 备(装备1025);以及位于它们之间的任何装备、设备或节点(在层1012中, 未详细图示出)。边缘云910内和各层之间的网络通信可以经由任何数量的有 线或无线介质来实现,包括经由未描绘出的连接性架构和技术。
由于网络通信距离和处理时间约束而得到的等待时间的示例的 范围可以从在端点层1000之间时的小于一毫秒(ms),在边缘设备层1010处 的低于5ms(例如,“接近边缘”或“靠近边缘”层)到当与网络接入层1020(例 如,“中间边缘”层)处的节点通信时的10到40ms之间。在边缘云910之外是 核心网络1030层和云数据中心1040层,每个层均具有增加的等待时间(例如, 在核心网络层1030处的50-60ms,在云数据中心层处的100ms或更多ms,这两者都可以被视为“远边缘”层)。因此,在核心网络数据中心1035或云数据 中心1045处的、具有至少为50至100ms或更多的等待时间的操作将无法完成 用例1005的许多时间关键的功能。出于说明和对比的目的,提供这些等待时 间值中的每一个等待时间值;应当理解,使用其他接入网络介质和技术可以进 一步降低等待时间。
由于多个服务利用边缘云,各种用例1005可以在来自传入流的 使用压力下访问资源。为了实现低等待时间的结果,在边缘云910内执行的服 务在以下方面平衡不同的需求:(a)优先级(吞吐量或等待时间)和服务质 量(QoS)(例如,在响应时间需求方面,自主汽车的通信量可能比温度传感 器具有更高的优先级;或者,取决于应用,性能敏感度/瓶颈可能存在于计算/ 加速器、存储器、存储、或网络资源上);(b)可靠性和复原性(例如,取 决于应用,一些输入流需要被作用并且以任务关键型可靠性来路由通信量,而 一些其他输入流可以容忍偶尔的故障;以及(c)物理约束(例如,功率、冷 却和形状因子)。
这些用例的端到端服务视图涉及服务流的概念,并与事务相关 联。事务详细说明了消费服务的实体的整体服务需求,以及资源、工作负荷、 工作流、以及业务功能和业务级别需求的相关联的服务。利用所描述的“方面 (term)”执行的服务能以某种方式在每层处进行管理,以确保在服务的生命周 期期间事务的实时和运行时合同合规性。当事务中的组件缺失其约定的SLA 时,系统作为整体(事务中的组件)可以提供以下能力:(1)理解SLA违规 的影响,以及(2)增强系统中的其他组件以恢复整体事务SLA,以及(3)实 现补救的步骤。在一些示例中,在通过利用补救作为成本函数权重来确定工作 负荷布置时,编排器202可以利用此类补救的成本或惩罚,如上文结合图3- 图6所讨论的。
因此,考虑到这些变化和服务特征,边缘云910内的边缘计算 能以实时或接近实时的方式向用例1005的多个应用(例如,对象跟踪、视频 监视、连接的汽车等)提供提供服务和作出响应的能力,并满足这些多个应用 的超低等待时间需求。这些优势使全新类别的应用(虚拟网络功能(VNF)、 功能即服务(FaaS)、边缘即服务(EaaS)、标准过程等)得以实现,这些应 用由于等待时间或其他限制而无法利用传统的云计算。
然而,随着边缘计算的优势,有以下注意事项。位于边缘处的 设备通常是资源受约束的,并且因此存在对边缘资源的使用的压力。通常,这 是通过对供多个用户(租户)和设备使用的存储器和存储资源的池化来解决的。 边缘可能是功率和冷却受约束的,并且因此需要由消耗最多功率的应用来负责 功率使用。在这些经池化的存储器资源中可能存在固有的功率性能权衡,因为 它们中的许多可能使用新兴的存储器技术,在这些技术中,更多的功率需要更 大的存储器带宽。同样,还需要改善的硬件安全性和信任根受信任的功能,因 为边缘位置可以是无人(控制)的,并且可能甚至需要经许可的访问(例如, 当被容纳在第三方位置时)。在多租户、多所有者、或多访问设置中,此类问 题在边缘云910中被放大,此类设置中,由许多用户请求服务和应用,特别是 当网络使用动态地波动以及多个利益相关者、用例、和服务的组成改变时。
在更一般的级别上,边缘计算系统可以被描述为涵盖在先前讨 论的、在边缘云910(网络层1000-1040)中操作的层处的任意数量的部署, 这些层提供来自客户端和分布式计算设备的协调。一个或多个边缘网关节点、 一个或多个边缘聚合节点和一个或多个核心数据中心可以分布在网络的各个 层上,以由电信服务提供商(“telco”或“TSP”)、物联网服务提供商、云服务 提供商(CSP)、企业实体或任何其他数量的实体或者代表其提供边缘计算系 统的实现。可以动态地提供边缘计算系统的各种实现方式和配置,诸如当被编 排以满足服务目标时。
与本文提供的示例一致,客户端计算节点可以被具体化为任何 类型的端点组件、设备、装置或能够作为数据的生产者或消费者进行通信的其 他事物。进一步地,如边缘计算系统中所使用的标签“节点”或“设备”不一定意 指此类节点或设备以客户端或代理/仆从/跟随者角色操作;相反,边缘计算系 统中的节点或设备中的任一者指代包括分立的和/或连接的硬件或软件配置以 促进和/或使用边缘云910的个体实体、节点、或子系统。
由此,边缘云910由网络层1010-1030中的边缘网关节点、 边缘聚合节点或其他边缘计算节点操作并在网络层1010-1030中的边缘网 关节点、边缘聚合节点或其他边缘计算节点内被操作的网络组件和功能特 征形成。因此,边缘云910可被具体化为提供边缘计算和/或存储资源的任何 类型的网络,这些边缘计算和/或存储资源被定位成接近支持无线电接入网络 (RAN)的端点设备(例如,移动计算设备、IoT设备、智能设备等),其在 本文中所讨论。换言之,边缘云910可被预想为连接端点设备和传统网络接入 点、同时还提供存储和/或计算能力的“边缘”,该“边缘”充当进入到包括移动运 营商网络(例如,全球移动通信系统(GSM)网络、长期演进(LTE)网络、 5G/6G网络等)的服务提供商核心网络中的入口点。其他类型和形式的网络接 入(例如,Wi-Fi、长程无线、包括光学网络的有线网络)也可替代此类3GPP 运营商网络被利用或与此类3GPP运营商网络组合来利用。
边缘云910的网络组件可以是服务器、多租户服务器、装置计 算设备和/或任何其他类型的计算设备。例如,边缘云910可以包括包含壳体、 底盘、机箱或外壳的自包含电子设备的装置计算设备。在一些情况下,可以针 对便携性来确定壳体尺寸,以使得其可由人类携载和/或被运输。示例壳体可包 括形成一个或多个外表面的材料,该一个或多个外表面部分地或完整地保护装 置的内容物,其中,保护可包括天气保护、危险环境保护(例如,EMI、振动、 极端温度)和/或使得能够浸入水中。示例壳体可包括用于为固定和/或便携式实现方式提供功率的功率电路系统,诸如AC功率输入、DC功率输入、(多 个)AC/DC或DC/AC转换器、功率调节器、变压器、充电电路系统、电池、 有线输入和/或无线功率输入。示例壳体和/或其表面可包括或连接至安装硬件, 以实现到诸如建筑物、电信结构(例如,杆、天线结构等)和/或机架(例如, 服务器机架、刀片支架等)之类的结构的附接。示例壳体和/或其表面可支持一 个或多个传感器(例如,温度传感器、振动传感器、光传感器、声学传感器、电容传感器、接近度传感器等)。一个或多个此类传感器可被包含在装置的表 面中、由装置的表面携载、或以其他方式被嵌入在装置的表面中和/或被安装至 装置的表面。示例壳体和/或其表面可支持机械连接,诸如推进硬件(例如,轮 子、螺旋桨等)和/或铰接硬件(例如,机械臂、可枢转附件等)。在一些情况 下,传感器可包括任何类型的输入设备,诸如用户接口硬件(例如,按键、开 关、拨号盘、滑块等)。在一些情况下,示例壳体可包括包含在其中、由其携 载、嵌入其中和/或附接于此的输出设备。输出设备可包括显示器、触摸屏、灯、LED、扬声器、I/O端口(例如,USB)等。在一些情况下,边缘设备是为特 定用途(例如,红绿灯)而存在于网络中、但是可具有可用于其他用途的处理 或其他能力的设备。此类边缘设备可以独立于其他联网设备,并且设置有具有 适合其主要目的的形状因子的壳体;但对于不干扰其主要任务的其他计算任务, 它仍然是可用的。边缘设备包括物联网设备。装置计算设备可包括用于管理诸 如设备温度、振动、资源利用率、更新、功率问题、物理和网络安全之类的本 地问题的硬件和软件组件。结合图15B描述用于实现装置计算设备的示例硬件。 边缘云910还可包括一个或多个服务器和/或一个或多个多租户服务器。此类服 务器可包括操作系统和虚拟计算环境。虚拟计算环境可包括管理(生成、部署、 损毁等)一个或多个虚拟机、一个或多个容器等的管理程序。此类虚拟计算环 境提供其中一个或多个应用和/或其他软件、代码或脚本可在与一个或多个其他 应用、软件、代码或脚本隔离的同时进行执行的执行环境。
图11图示出示例环境1100的框图,在该示例环境1100中,各 种客户端端点1110(采用移动设备、计算机、自主交通工具、商业计算装备、 工业处理装备的形式)与示例边缘云910交换请求和响应。例如,计算机、商 业计算装备、和工业处理装备可通过经由内部网络系统1132交换请求和响应 1122、经由有线宽带网络获得网络接入。移动计算设备可以通过交换通过蜂窝 网络塔1134的请求和响应1124、经由无线宽带网络获得网络接入。自主交通 工具可通过街道定位网络系统1126经由无线机载网络获得请求和响应1136的 网络接入。然而,无论网络接入的类型如何,TSP可以在边缘云910内部署聚 合点1142、1144来聚合通信量和请求。因此,在边缘云910内,TSP可以(诸 如在边缘聚合节点1140处)部署各种计算和存储资源以提供请求的内容。边 缘聚合节点1140和边缘云910的其他系统被连接至云或数据中心1160,该云 或数据中心1160使用回程网络1450来满足来自云/数据中心对网站、应用、数 据库服务器等的更高等待时间请求。(边缘聚合节点1140和聚合点1142、1144的附加或合并的实例(包括部署在单个服务器框架上的那些实例)也可以存在 于边缘云910或TSP基础设施的其他区域内)。
图12示出了跨在多个边缘节点和多个租户之间操作的边缘计算 系统的虚拟边缘配置的部署和编排。具体而言,图12描绘了边缘计算系统1200 中的第一边缘节点1222和第二边缘节点1224的协调,以完成对接入各种虚拟 边缘实例的各种客户端端点1210(例如,智慧城市/建筑系统、移动设备、计 算设备、商业/物流系统、工业系统等)的请求和响应。在此,虚拟边缘实例通 过接入云/数据中心1240(对网站、应用、数据库服务器等有更高等待时间请 求)来提供边缘云中的边缘计算能力和处理。然而,边缘云能够协调多个租户 或实体的多个边缘节点之间的处理。
在图12的示例中,这些虚拟边缘实例包括:提供给第一租户(租 户1)的第一虚拟边缘1232,该第一虚拟边缘1232提供边缘存储、计算、和 服务的第一组合;以及第二虚拟边缘1234,提供边缘存储、计算、和服务的第 二组合。虚拟边缘实例1232、1234分布在边缘节点1222、1224之间,并且可 以包括其中从相同或不同的边缘节点满足请求和响应的场景。用于以分布式但 协调的方式操作的边缘节点1222、1224的配置基于边缘供应功能1250来发生。 用于在多个租户之间为应用和服务提供协调的操作的边缘节点1222、1224的 功能基于编排功能1260来发生。
应当理解,1210中的设备中的一些设备是多租户设备,其中租 户1可以在租户1‘片’内运行,而租户2可以在租户2片内运行(并且,在进 一步的示例中,可能存在附加的租户或子租户;并且每个租户甚至可以对特定 特征组具体地享有权利并且在事务上被绑定至特定特征组,一直到对特定的硬 件特征具体地享有权利并且在事务上被绑定至特定的硬件特征)。受信任的多 租户设备可以进一步包含租户专用的加密密钥,使得密钥和片的组合可以被视 为“信任根”(RoT)或租户专用的RoT。可以进一步使用DICE(设备标识组合引擎)架构组成动态计算的RoT,使得单个DICE硬件构建块可用于构造用于 对设备能力(诸如现场可编程门阵列(FPGA))进行分层的分层受信任的计 算基础上下文。RoT进一步可用于受信任计算上下文,以启用对支持多租赁有 用的“扇出”。在多租户环境内,相应的边缘节点1222、1224可以作为分配给 每节点多个租户的本地资源的安全性特征实施点。附加地,租户运行时和应用 执行(例如,在实例1232、1234中)可以用作安全性特征的实施点,该安全 性特征创建跨越潜在多个物理主管平台的资源的虚拟边缘抽象。最后,编排实 体处的编排功能1260可以作为用于沿着租户边界对资源进行列队(marshalling) 的安全性特征实施点来操作。
边缘计算节点可划分资源(存储器、CPU、GPU、中断控制器、 I/O控制器、存储器控制器、总线控制器等),其中,相应的分区可包含RoT 能力,并且其中根据DICE模型的扇出和分层可进一步应用于边缘节点。由容 器、FaaS引擎、小型服务程序、服务器、或其他计算抽象组成的云计算节点可 以根据DICE分层和扇出结构进行分区,以支持每个节点的RoT上下文。因此, 跨越设备1210、1222和1240的相应的RoT可以协调分布式受信任计算基础(DTCB)的建立,使得可以建立端到端链接所有要素的租户专用的虚拟受信 任安全信道。
此外,应当理解,容器可以具有保护其内容不受先前边缘节点 影响的数据或工作负荷特定的密钥。作为容器迁移的一部分,源边缘节点处的 舱(pod)控制器可以从目标边缘节点舱控制器获得迁移密钥,其中迁移密钥 用于包装容器特定的密钥。当容器/舱迁移到目标边缘节点时,解包裹密钥被暴 露给舱控制器,然后舱控制器解密经包裹的密钥。密钥现在可用于对容器特定 的数据执行操作。迁移功能可以由适当认证的边缘节点和舱管理器(如上所述) 进行选通(gate)。
在进一步的示例中,边缘计算系统被扩展以通过在多所有者、 多租户环境中使用容器(提供代码和所需依赖关系的被容纳的、可部署的软件 单元)来提供多个应用的编排。多租户编排器可用于执行密钥管理、信任锚管 理以及与图12中的受信任的‘片’概念的供应和生命周期相关的其他安全性功 能。例如,边缘计算系统可被配置成用于满足来自多个虚拟边缘实例(以及, 来自云或远程数据中心)的各种客户端端点的请求和响应。这些虚拟边缘实 例的使用可以同时支持多个租户和多个应用(例如,增强现实(AR)/虚拟现 实(VR)、企业应用、内容交付、游戏、计算迁移)。此外,虚拟边缘实例 内可能存在多种类型的应用(例如,普通应用;等待时间敏感型应用;等待时 间关键型应用;用户平面应用;联网应用等)。虚拟边缘实例还可以横跨处于 不同地理位置的多个所有者的系统(或,由多个所有者共同拥有或共同管理的 相应的计算系统和资源)。
例如,每个边缘节点1222、1224可以实现容器的使用,诸如使 用提供一个或多个容器的组的容器“舱”1226、1228。在使用一个或多个容器舱 的设置中,舱控制器或编排器负责舱中容器的本地控制和编排。根据每个容器 的需要对为相应边缘片1232、1234提供的各种边缘节点资源(例如,存储、 计算、服务,用六边形描绘)进行分区。
使用容器舱后,舱控制器监督容器和资源的分区和分配。舱控 制器从编排器(例如,编排器1260)接收指令,该编排器指示控制器如何最佳 地对物理资源进行分区以及在什么持续时间内,诸如通过基于SLA合同接收 关键性能指标(KPI)目标。舱控制器确定哪个容器需要哪些资源,以及完成 工作负荷和满足SLA需要多久。舱控制器还管理容器生命周期操作,诸如: 创建容器、为容器提供资源和应用、协调在分布式应用上一起工作的多个容器 之间的中间结果、工作负荷完成时拆除容器等。此外,舱控制器可以充当安全 角色,阻止资源分配,直到正确的租户验证或阻止向容器提供数据或工作负荷, 直到满足认证结果。
此外,通过使用容器舱,租户边界仍然可以存在,但在容器的 每一个舱的上下文中。如果每个租户特定的舱都有租户特定的舱控制器,则将 有一个共享舱控制器,该共享舱控制器将合并资源分配请求,以避免典型的资 源短缺情况。可提供进一步的控制,以确保舱和舱控制器的认证和可信。例如, 编排器1260可以向执行认证验证的本地舱控制器提供认证验证策略。如果认 证满足第一租户舱控制器而不是第二租户舱控制器的策略,则第二舱可以迁移 到确实满足该策略的不同边缘节点。或者,可以允许第一舱执行,并且在第二 舱执行之前安装和调用不同的共享舱控制器。
图13示出了在边缘计算系统中部署容器的附加计算布置。作为 简化示例,系统布置1310、1320描述了其中舱控制器(例如,容器管理器1311、 1321和容器编排器1331)适于通过经由计算节点(布置1310中的1315)的执 行来启动容器化舱、功能、和功能即服务实例,或适于通过经由计算节点(布 置1320中的1323)的执行来单独地执行容器化虚拟化的网络功能。该布置适 于在(使用计算节点1336的)示例系统布置1330中使用多个租户,其中容器 化舱(例如,舱1312)、功能(例如,功能1313、VNF 1322、VNF 1336)、 和功能即服务实例(例如,FaaS实例1315)在专用于相应的租户的虚拟机(例 如,用于租户1332的VM 1334、用于租户1333的VM 1335)内被启动(除了 执行虚拟化网络功能)。该布置进一步适于在系统布置1340中使用,该系统 布置1340提供容器1342、1343,或在计算节点1344上执行各种功能、应用和 功能,如由基于容器的编排系统1341所协调。
图13中描绘的系统布置提供了在应用组成方面平等地对待VM、 容器和功能的架构(并且得到的应用是这三种组成部分的组合)。每个组成部分 可能涉及使用一个或多个加速器(FPGA、ASIC)组件作为本地后端。以此方式, 应用可以在多个边缘所有者之间被分割,如由编排器进行协调。
在图13的上下文中,舱控制器/容器管理器、容器编排器和各 个节点可以提供安全性实施点。然而,可以编排租户隔离,其中分配给一租户 的资源与分配给第二租户的资源是不同的,但是边缘所有者合作以确保资源分 配不跨租户边界被共享。或者,资源分配可以跨租户边界而被隔离,因为租户 可以允许经由订阅或事务/合同基础的“使用”。在这些上下文中,边缘所有者可 以使用虚拟化、容器化、飞地和硬件分区方案来强制执行租赁。其他隔离环境 可包括:裸金属(专用)装备、虚拟机、容器、容器上的虚拟机或其组合。
在进一步的示例中,软件定义的或受控的硅硬件以及其他可配 置的硬件的各方面可以与边缘计算系统的应用、功能、和服务整合。软件定义 的硅可用于基于某一资源或硬件组成部分(例如,通过升级、重新配置或在硬 件配置本身内提供新的特征)修复自身或工作负荷的一部分的能力、来确保该 组成部分履行合同或服务水平协议的能力。
应当领会,本文讨论的边缘计算系统和布置可适用于涉及移动 性的各种解决方案、服务和/或用例。作为示例,图14示出涉及对实现边缘云 (诸如,图9的边缘云910)的示例边缘计算系统1400中的应用进行的移动访 问的示例简化交通工具计算和通信用例。在该用例中,相应的客户端计算节点 1410可以被具体化为位于相对应交通工具中的机载计算系统(例如,机载导航 和/或信息娱乐系统),该机载计算系统在横越道路期间与示例边缘网关节点 1420通信。例如,边缘网关节点1420可以位于路边机柜或被内置到具有其他的、分开的、机械公共设施的结构中的其他外壳中,路边机柜或其他外壳可以 沿着道路、在道路的交叉路口处、或在道路附近的其他位置放置。当相应的交 通工具沿着道路行驶时,其客户端计算节点1410与边缘网关节点1420中的特 定边缘网关节点之间的连接可以传播,以便为示例客户端计算节点1410保持 一致的连接和上下文。同样,移动边缘节点可以在高优先级服务处或根据(多 个)底层服务(例如,在无人机的情况下)的吞吐量或等待时间分辨率要求进行 聚合。相应的边缘网关节点1420包括一定量的处理和存储能力,并且由此, 客户端计算节点1410的数据的一些处理和/或存储可在边缘网关节点1420中的 一个或多个边缘网关节点1420上执行。
边缘网关节点1420可以与一个或多个边缘资源节点1440通信, 这些边缘资源节点1440被说明性地具体化为位于通信基站1442(例如,蜂窝网 络的基站)处或位于该通信基站1442中的计算服务器、装置或组件。如上文所 讨论,相应的(多个)边缘资源节点1440包括一定量的处理和存储能力,并 且由此,客户端计算节点1410的一些数据处理和/或数据存储可以在(多个) 边缘资源节点1440上执行。例如,不太紧急或不太重要的数据处理可以由边 缘资源节点1440执行,而更高的紧急性或重要性的数据处理可以由边缘网关 设备1420执行(例如,取决于每个组件的能力,或请求中指示紧急性或重要性 的信息)。基于数据访问、数据位置或等待时间,当处理活动期间的处理优先 级改变时,可在边缘资源节点上继续工作。同样,可配置的系统或硬件资源本 身可以(例如,通过本地编排器)被激活,以提供附加的资源来满足新的需求(例 如,使计算资源适配到工作负荷数据)。
(多个)边缘资源节点1440还与核心数据中心1450通信,核 心数据中心1450可以包括位于中心位置(例如,蜂窝通信网络的中央局)的 计算服务器、设备和/或其他组件。示例核心数据中心1450可以为由(多个)边 缘资源节点1440和边缘网关设备1420形成的边缘云910操作提供到全球网络 云1460(例如,互联网)的网关。另外,在一些示例中,核心数据中心1450可 以包括一定量的处理和存储能力,并且因此,可以在核心数据中心1450上执行用于客户端计算设备的一些数据处理和/或存储(例如,低紧急性或重要性或 高复杂性的处理)。
边缘网关节点1420或(多个)边缘资源节点1440可以提供状 态型的应用1432和地理分布式数据库1434的使用。虽然应用1432和数据库 1434被图示出为在边缘云的层处横向地分布,但将理解,应用的资源、服务、 或其他组件可以在整个边缘云中竖直地分布(包括,在客户端计算节点1410处 执行的应用的一部分,在边缘网关节点1420处或(多个)边缘资源节点1440 等处的其他部分)。另外,如前所述,可以存在任何级别上的对等关系以满足服务目标和义务。进一步地,特定客户端或应用的数据可以基于变化的条件(例 如,基于加速资源的可用性、跟随汽车移动等)从边缘移动到边缘。例如,基 于访问的“衰减率”,可以进行预测,以标识要继续的下一个所有者,或者数据 或计算访问何时将不再可行。可以利用这些服务和其他服务来完成保持事务合 规性和无损性所需的工作。
在进一步的场景中,容器1436(或容器的舱)可以从边缘节点 1420中的一个边缘节点灵活地迁移到其他边缘节点(例如,这些边缘节点1420 中的另一个边缘节点、(多个)边缘资源节点1440、1450、1460中的一个边 缘资源节点等),使得具有应用和工作负荷的容器不需要为了迁移到工作中而 被重组、重新编译、重新解释。但是,在此类设置中,可能应用一些补救或“混 合”的转换操作。例如,(多个)边缘资源节点1440处的物理硬件可能不同于 边缘网关节点1420处的硬件,并且因此,组成容器底部边缘的硬件抽象层(HAL) 将被重新映射到目标边缘节点的物理层。这可能涉及某种形式的后期绑定技术, 诸如HAL从容器原生格式到物理硬件格式的二进制转换,或者可能涉及映射 接口和操作。舱控制器可用于驱动接口映射,作为容器生命周期的一部分,其 中包括迁移到不同的硬件环境/从不同的硬件环境迁移。
图14所涵盖的场景可以利用各种类型的移动边缘节点(诸如在 交通工具(汽车/卡车/电车/火车)或其他移动单元中主管的边缘节点),因为边 缘节点将沿着主管它的平台移动到其他地理位置。在交通工具对交通工具通信 的情况下,单个交通工具甚至可以充当其他交通工具的网络边缘节点,(例如, 以执行高速缓存、报告、数据聚合等)。因此,将理解,在各种边缘节点中提 供的应用组件可以分布在静态或移动设置中,包括在各个端点设备或边缘网关 节点1420处的一些功能或操作、在(多个)边缘资源节点1440处的一些其他功能或操作、以及在核心数据中心1450或全球网络云1460中的其他功能或操 作之间的协调。
在进一步的配置中,边缘计算系统可以通过使用相应的可执行 应用和功能来实现FaaS计算能力。在示例中,开发者编写表示一个或多个计 算机功能的功能代码(例如,本文中的“计算机代码”),并且该功能代码被上传 到由例如边缘节点或数据中心提供的FaaS平台。触发器(诸如例如,服务用 例或边缘处理事件)发起利用FaaS平台执行功能代码。
在FaaS的示例中,容器用于提供一个环境,在该环境中执行功 能代码(例如,可能由第三方提供的应用)。容器可以是任何隔离执行的实体, 诸如进程、Docker容器或Kubernetes容器、虚拟机等。在边缘计算系统内,各 种数据中心、边缘、和端点(包括移动)设备被用于按需扩展的“旋转加速(spin up)”功能(例如,激活和/或分配功能动作)。功能代码在物理基础设施(例如, 边缘计算节点)设备和底层虚拟化容器上得到执行。最后,容器响应于执行被 完成而在基础设施上被“旋转减速”(例如,去激活和/或解除分配)。
FaaS的其他方面可以使边缘功能以服务方式进行部署,包括对 支持边缘计算即服务(边缘即服务或“EaaS”)的相应功能的支持。FaaS的附加特 征可包括:使客户(例如,计算机代码开发者)仅在其代码被执行时进行支付的 粒度计费组件;用于存储数据以供一个或多个功能重新使用的通用数据存储; 各个功能之间的编排和管理;功能执行管理、并行性和合并;容器和功能存储 器空间的管理;功能可用的加速资源的协调;以及功能在容器之间的分布(包 括已经部署或操作的“暖”容器,相对于需要初始化、部署、或配置的“冷”容器)。
边缘计算系统1400可包括边缘供应节点1444或与边缘供应节 点1444通信。边缘供应节点1444可以将诸如图15B的示例计算机可读指令 1582的软件,分发到实施本文所述的任何方法的各个接收方。示例边缘供应节 点1444可以由能够存储软件指令和/或向其他计算设备传输软件指令(例如, 代码、脚本、可执行二进制文件、容器、包、压缩文件和/或其衍生物)的以下 各项来实现:任何计算机服务器、家庭服务器、内容交付网络、虚拟服务器、软件分发系统、中央设施、存储设备、存储节点、数据设施、云服务等。示例 边缘供应节点1444的(多个)组件可以位于云中、局域网中、边缘网络中、 广域网中、因特网上和/或与(多个)接收方通信耦合的任何其他位置。接收方 可以是拥有和/或操作边缘供应节点1444的实体的客户、客户端、合作伙伴、 用户等。例如,拥有和/或操作边缘供应节点1444的实体可以是软件指令(诸 如图15B的示例计算机可读指令1582)的开发者、销售者和/或许可者(或其 客户和/或消费者)。接收方可以是消费者、服务提供商、用户、零售商、OEM 等,他们购买和/或许可软件指令以用于使用和/或转售和/或分许可。
在示例中,边缘供应节点1444包括一个或多个服务器和一个或 多个存储设备。存储设备主控计算机可读指令,诸如图15B的示例计算机可读 指令1582,如下所述。类似于上述边缘网关设备1420,边缘供应节点1444的 一个或多个服务器与基站1442或其他网络通信实体通信。在一些示例中,作 为商业事务的一部分,一个或多个服务器响应于将软件指令传送到请求方的请 求。可以由软件分发平台的一个或多个服务器和/或经由第三方支付实体来处理 对软件指令的交付、销售、和/或许可的支付。服务器使购买者和/或许可者能够从边缘供应节点1444下载计算机可读指令1582。例如,可以与图15B的示 例计算机可读指令1582相对应的软件指令可以被下载到示例处理器平台,该 示例处理器平台用于执行计算机可读指令1582以实现本文所描述的方法。
在一些示例中,执行计算机可读指令1582的(多个)处理器平 台可以物理地位于不同的地理位置、法律管辖区等。在一些示例中,边缘供应 节点1444的一个或多个服务器周期性地提供、传送和/或强制进行软件指令(例 如,图15B的示例计算机可读指令1582)的更新以确保改善、补丁、更新等 被分发并应用于终端用户设备处实现的软件指令。在一些示例中,计算机可读 指令1582的不同组件可以从不同的源和/或不同的处理器平台分发;例如,不 同的库、插件、组件和其他类型的计算模块,无论是经编译的还是经解释的, 都可以从不同的源和/或向不同的处理器平台分发。例如,软件指令的一部分(例 如,本身不可执行的脚本)可以从第一源分发,而(能够执行脚本的)解释器 可以从第二源分发。
在进一步的示例中,参考当前的边缘计算系统和环境讨论的计 算节点或设备中的任一者可以基于图15A和图15B所描绘的组件来实现。相 应的边缘计算节点可以被具体化为能够与其他边缘组件、联网组件或端点组件 进行通信的设备、装置、计算机或其他“事物”的类型。例如,边缘计算设备可 以具体化为个人计算机、服务器、智能手机、移动计算设备、智能设备、机载 计算系统(例如,导航系统)、具有外箱、外壳等的自包含设备,或能够执行 所述功能的其他设备或系统。
图15A是示例边缘计算节点1500的示例实现方式的框图,该示 例边缘计算节点1500包括计算引擎(本文中也称为“计算电路系统”)1502、输入 /输出(I/O)子系统1508、数据存储1510、通信电路系统子系统1512,并且任选 地包括一个或多个外围设备1514。在其他示例中,相应的计算设备可以包括其 他或附加组件,诸如通常在计算机中发现的那些组件(例如,显示器、外围设 备等)。另外,在一些示例中,说明性组件中的一个或多个可被结合到另一组 件中,或以其他方式形成另一组件的部分。图15的示例边缘计算节点1500可被部署在图9-图12和/或图14中所图示的边缘计算系统中的一个边缘计算系 统中,以实现本文所公开示例的任何边缘计算节点。
计算节点1500可被具体化为能够执行各种计算功能的任何类型 的引擎、设备、或设备集合。在一些示例中,计算节点1500可被具体化为单 个设备,诸如集成电路、嵌入式系统、现场可编程门阵列(FPGA)、片上系 统(SOC)或其他集成系统或设备。在说明性示例中,计算节点1500包括或 被具体化为处理器1504和存储器1506。处理器1504可被具体化为能够执行本 文中所描述的功能(例如,执行应用)的任何类型的处理器。例如,处理器1504 可被具体化为(多个)多核处理器、微控制器、处理单元、专门或专用处理单 元、或其他处理器或处理/控制电路。
在一些示例中,处理器1504可被具体化为、包括或耦合到FPGA、 专用集成电路(ASIC)、可重新配置的硬件或硬件电路系统、或用于促进本文 中所描述的功能的执行的其他专用硬件。同样在一些示例中,处理器1504可 以具体化为专用x处理单元(xPU)(也称为数据处理单元(DPU))、基础 设施处理单元(IPU)或网络处理单元(NPU)。此类xPU可具体化为独立电 路或电路封装、集成在SOC内或与联网电路系统(例如,在智能NIC中)集 成、加速电路系统、存储设备或AI硬件(例如,GPU或编程FPGA)。此类 xPU可设计成用于接收编程以在CPU或通用处理硬件之外处理一个或多个数 据流并执行数据流的特定任务和动作(诸如托管微服务、执行服务管理或编排、 组织或管理服务器或数据中心硬件、管理服务网格,或收集和分发遥测数据)。 然而,将理解的是,xPU、SOC、CPU和处理器1504的其他变体可以彼此协 调工作以在计算节点1500内并代表计算节点1500执行多种类型的操作和指令。
主存储器1506可被具体化为能够执行本文中所述的功能的任何 类型的易失性(例如,动态随机存取存储器(DRAM)等)或非易失性存储器 或数据存储。易失性存储器可以是需要维持由该介质存储的、数据状态的能力 的存储介质。易失性存储器的非限制性示例可包括各种类型的随机存取存储器 (RAM),诸如DRAM或静态随机存取存储器(SRAM)。可以在存储模块 中使用的一个特定类型的DRAM是同步动态随机存取存储器(SDRAM)。
在一个示例中,存储器设备是块可寻址存储器设备,诸如基于 NAND或NOR技术的那些存储器设备。存储器设备还可包括三维交叉点存储 器设备(例如,
Figure BDA0003227545820000491
3D XPointTM存储器)或其他字节可寻址的就地写入非易 失性存储器设备。存储器设备可指代管芯本身和/或指代封装的存储器产品。在 一些示例中,3D交叉点存储器(例如,
Figure BDA0003227545820000492
3D XPointTM存储器)可包括无 晶体管的可堆叠的交叉点架构,其中存储单元位于字线和位线的交点处,并且 可单独寻址,并且其中位存储基于体电阻的变化。在一些示例中,主存储器1506的全部或一部分可以被集成到处理器1504中。主存储器1506可以存储在操作 期间使用的各种软件和数据,诸如一个或多个应用、通过(多个)应用、库以 及驱动程序操作的数据。
计算电路系统1502经由I/O子系统1508通信地耦合到计算节 点1500的其他组件,该I/O子系统1508可被具体化为用于促进与计算电路系 统1502(例如,与处理器1504和/或主存储器1506)以及计算电路系统1502 的其他组件的输入/输出操作的电路系统和/或组件。例如,I/O子系统1508可 被具体化为或以其他方式包括存储器控制器中枢、输入/输出控制中枢、集成传 感器中枢、固件设备、通信链路(即,点对点链路、总线链路、线路、电缆、光导、印刷电路板迹线等)和/或用于促进输入/输出操作的其他组件和子系统。 在一些示例中,I/O子系统1508可以形成片上系统(SoC)的部分,并可与计 算电路系统1502的处理器1504、主存储器1506、和其他组件中的一个或多个 一起被合并到计算电路系统1502中。
一个或多个说明性数据存储设备1510可被具体化为被配置成用 于数据的短期或长期存储的任何类型的设备,诸如例如,存储器设备和电路、 存储器卡、硬盘驱动器、固态驱动器或其他数据存储设备。各个数据存储设备 1510可包括存储数据存储设备1510的数据以及固件代码的系统分区。各个数 据存储设备1510还可以包括一个或多个操作系统分区,该操作系统分区根据 例如计算节点1500的类型来存储操作系统的数据文件和可执行文件。
通信电路系统1512可被具体化为能够实现通过网络在计算电路 系统1502与其他计算设备(例如,边缘计算系统的边缘网关)之间的进行通 信的任何通信电路、设备或其集合。通信电路系统1512可以被配置成使用任 何一种或多种通信技术(例如,有线或无线通信)和相关联的协议(例如,蜂 窝联网协议(诸如3GPP 4G或5G标准)、无线局域网协议(诸如IEEE
Figure BDA0003227545820000501
)、无线广域网协议,以太网、
Figure BDA0003227545820000502
蓝牙低能量、IoT协议 (诸如IEEE 802.15.4或
Figure BDA0003227545820000503
)、低功率广域网(LPWAN)或低功率广域 网(LPWA)协议等)来实行此类通信。
说明性通信电路系统1512包括网络接口控制器(NIC)1520, 其也被称为主机结构接口(HFI)。NIC 1520可被具体化为一个或多个插入式 板、子卡、网络接口卡、控制器芯片、芯片组或可由计算节点1500用来与另 一计算设备(例如,边缘网关节点)连接的其他设备。在一些示例中,NIC 1520 可被具体化为包括一个或多个处理器的片上系统(SoC)的一部分,或NIC 1520 可被包括在也包含一个或多个处理器的多芯片封装上。在一些示例中,NIC1520可包括均位于NIC 1520本地的本地处理器(未示出)和/或本地存储器(未 示出)。在此类示例中,NIC 1520的本地处理器可能能够执行本文中描述的计 算电路系统1502的功能中的一个或多个功能。附加地,或者替代地,在此类 示例中,NIC 1520的本地存储器可以在板级、插座级、芯片级和/或其他层级 上被集成到客户端计算节点的一个或多个组件中。
另外,在一些示例中,相应的计算节点1500可以包括一个或多 个外围设备1514。取决于计算节点1500的特定类型,此类外围设备1514可包 括通常在计算设备或服务器中发现的任何类型的外围设备,诸如音频输入设备、 显示器、其他输入/输出设备、接口设备和/或其他外围设备。在进一步的示例 中,计算节点1500可以由相应的边缘计算节点(无论是客户端、网关或聚合 节点)在边缘计算系统或类似形式的设备、计算机、子系统、电路系统或其他 组件中。
在更详细的示例中,图15B图示出示例边缘计算节点1550的框 图,该示例边缘计算节点1550被构造成用于执行图3-图6的指令以实现本文 中所描述的技术(例如,操作、过程、方法和方法论),这些技术诸如图2的 边缘平台200。该边缘计算节点1550提供在被实现为计算设备(例如,移动设 备、基站、服务器、网关等)或该计算设备的部分时节点1500的相应组件的 更靠近的视图。边缘计算节点1550可包括本文中所引用的硬件或逻辑组件的 任何组合,并且该边缘计算节点1550可以包括可与边缘通信网络或此类网络 的组合一起使用的任何设备或与该设备耦合。这些组件可被实现为IC、IC的 部分、分立的电子器件或其他模块、指令集、可编程逻辑或算法、硬件、硬件 加速器、软件、固件、或其在边缘计算节点1550中适配的组合,或者被实现 为以其他方式被并入在更大的系统的机架内的组件。例如,边缘计算节点1550 可以是例如,服务器、个人计算机、工作站、自学习机(例如,神经网络)、 移动设备(例如,蜂窝电话、智能电话、诸如iPadTM之类的平板)、个人数字 助理(PDA)、因特网装置、DVD播放器、CD播放器、数字视频记录仪、蓝 光播放器、游戏控制台、个人视频记录仪、机顶盒、头戴式耳机或其他可穿戴 设备、或任何其他类型的计算设备。
边缘计算设备1550可包括处理器1552形式的处理电路系统, 该处理电路系统可以是微处理器、多核处理器、多线程处理器、超低电压处理 器、嵌入式处理器、xPU/DPU/IPU/NPU、专用处理单元、专门处理单元,或其 他已知的处理元件。处理器1552可以是芯片上系统(SoC)的部分,在该SoC 中,处理器1552和其他组件形成到单个集成电路或单个封装中,诸如,来自 加利福尼亚州圣克拉拉市的英特尔公司的爱迪生TM(EdisonTM)或伽利略 TM(GalileoTM)SoC板。作为示例,处理器1552可包括基于
Figure BDA0003227545820000521
架构酷睿TM (CoreTM)的CPU处理器(诸如QuarkTM、AtomTM、i3、i5、i7、i9或MCU 级处理器)、或可从
Figure BDA0003227545820000522
获得的另一此类处理器。然而,可使用任何数量 的其他处理器,诸如,可从加利福尼亚州桑尼威尔市的超微半导体公司
Figure BDA0003227545820000523
获得的处理器、来自加利福尼亚州桑尼威尔市的MIPS技术公司的基于
Figure BDA0003227545820000524
的设计、许可自ARM控股有限公司的基于
Figure BDA0003227545820000525
的设计,或从上述各公司的客户、被许可方或采纳方获得的处理器。处理器可包括诸如以下单元:来自
Figure BDA0003227545820000526
Figure BDA0003227545820000527
公司的A5-A13处理器、来自
Figure BDA0003227545820000528
技术公司的骁龙TM(SnapdragonTM)处 理器或来自德州仪器公司的OMAPTM处理器。处理器1552和伴随的电路系统 可以以单插座形状因子、多插座形状因子或各种其他格式提供,包括有限的硬 件配置或包括少于图15B中所示的所有元件的配置。在该示例中,处理器1552 实现示例编排器202、示例能力控制器204、示例遥测控制器206、示例EP数 据库208、(多个)示例资源210和/或更一般地,示例边缘平台200。
处理器1552可通过互连1556(例如,总线)来与系统存储器 1554通信。可使用任何数量的存储器设备来提供给定量的系统存储器。作为示 例,存储器可以是根据联合电子器件工程委员会(JEDEC)设计的随机存取存储 器(RAM),诸如DDR或移动DDR标准(例如,LPDDR、LPDDR2、LPDDR3 或LPDDR4)。在特定示例中,存储器组件可符合JEDEC颁布的标准,诸如 DDR SDRAM的JESD79F、DDR2 SDRAM的JESD79-2F、DDR3 SDRAM的 JESD79-3F、DDR4 SDRAM的JESD79-4A、低功率DDR(LPDDR)的JESD209、LPDDR2的JESD209-2、LPDDR3的JESD209-3和LPDDR4的JESD209-4。此 类标准(和类似的标准)可被称为基于DDR的标准,而存储设备的实现此类 标准的通信接口可被称为基于DDR的接口。在各种实现方式中,单独的存储 器设备可以是任何数量的不同封装类型,诸如单管芯封装(SDP)、双管芯封 装(DDP)或四管芯封装(Q17P)。在一些示例中,这些设备可以直接焊接到 主板上,以提供较低轮廓的解决方案,而在其他示例中,设备被配置为一个或 多个存储器模块,这些存储器模块进而通过给定的连接器耦合至主板。可使用 任何数量的其他存储器实现方式,诸如其他类型的存储器模块,例如,不同种 类的双列直插存储器模块(DIMM),包括但不限于microDIMM(微DIMM) 或MiniDIMM(迷你DIMM)。
为了提供对信息(诸如数据、应用、操作系统等)的持久性存 储,存储1558还可经由互连1556而耦合至处理器1552。在示例中,存储1558 可经由固态盘驱动器(SSDD)来实现。可用于存储1558的其他设备包括闪存卡 (诸如SD卡、microSD卡、xD图片卡,等等)和USB闪存驱动器。在示例 中,存储器设备可以是或者可以包括使用硫属化物玻璃的存储器设备、多阈值 级别NAND闪存、NOR闪存、单级或多级相变存储器(PCM)、电阻式存储 器、纳米线存储器、铁电晶体管随机存取存储器(FeTRAM)、反铁电存储器、 包含忆阻器技术的磁阻随机存取存储器(MRAM)、包括金属氧化物基底、氧 空位基底和导电桥随机存取存储器(CB-RAM)的电阻式存储器、或自旋转移 力矩(STT)-MRAM、基于自旋电子磁结存储器的设备、基于磁隧穿结(MTJ) 的设备、基于DW(畴壁)和SOT(自旋轨道转移)的设备、基于晶闸管的存储器设备、或者任何上述或其他存储器的组合。
在低功率实现中,存储1558可以是与处理器1552相关联的管 芯上存储器或寄存器。然而,在一些示例中,存储1558可使用微硬盘驱动器 (HDD)来实现。此外,附加于或替代所描述的技术,可将任何数量的新技术 用于存储1558,诸如阻变存储器、相变存储器、全息存储器或化学存储器,等 等。
组件可通过互连1556进行通信。互连1556可包括任何数量的 技术,包括工业标准架构(ISA)、扩展ISA(EISA)、外围组件互连(PCI)、 外围组件互连扩展(PCIx)、PCI快速(PCIe)或任何数量的其他技术。互连 1556可以是例如在基于SoC的系统中使用的专有总线。其他总线系统可被包 括,诸如I2C接口、SPI接口、点对点接口、以及功率总线,等等。
互连1556可将处理器1552耦合至收发机1566,以便例如与连 接的边缘设备1562通信。收发机1566可使用任何数量的频率和协议,诸如, IEEE 802.15.4标准下的2.4千兆赫兹(GHz)传输,使用如由
Figure BDA0003227545820000541
特别兴趣小组 定义的
Figure BDA0003227545820000542
低能量(BLE)标准、或
Figure BDA0003227545820000543
标准,等等。为特定的无线通 信协议配置的任何数量的无线电可用于到连接的边缘设备1562的连接。例如, 无限局域网(WLAN)单元可用于根据电气和电子工程师协会(IEEE)802.11 标准实现
Figure BDA0003227545820000544
通信。另外,例如根据蜂窝或其他无线广域协议的无线广域 通信可经由无线广域网(WWAN)单元发生。
无线网络收发机1566(或多个收发机)可以使用用于不同范围的 通信的多种标准或无线电来进行通信。例如,边缘计算节点1550可使用基于 BLE或另一低功率无线电的本地收发机与接近的(例如,在约10米内的)设 备通信以节省功率。更远的(例如,在约50米内的)连接的边缘设备1562可 通过
Figure BDA0003227545820000545
或其他中间功率的无线电而联络到。这两种通信技术能以不同的 功率水平通过单个无线电发生,或者可通过分开的收发机而发生,分开的收发 机例如使用BLE的本地收发机和分开的使用
Figure BDA0003227545820000546
的网格收发机。
无线网络收发机1566(例如,无线电收发机)可被包括,以经 由局域网协议或广域网协议来与边缘云1590中的设备或服务通信。无线网络 收发机1566可以是遵循IEEE802.15.4或IEEE 802.15.4g标准等的LPWA收发 机。边缘计算节点1550可使用由Semtech和LoRa联盟开发的LoRaWANTM(长 距离广域网)在广域上通信。本文中描述的技术不限于这些技术,而使可与实 现长距离、低带宽通信(诸如,Sigfox和其他技术)的任何数量的其他云收发 机一起使用。进一步地,可使用其他通信技术,诸如在IEEE 802.15.4e规范中 描述的时分信道跳。
除了针对如本文中所描述的无线网络收发机1566而提及的系统 之外,还可使用任何数量的其他无线电通信和协议。例如,收发机1566可包 括使用扩展频谱(SPA/SAS)通信以实现高速通信的蜂窝收发机。进一步地, 可使用任何数量的其他协议,诸如用于中速通信和供应网络通信的
Figure BDA0003227545820000551
网 络。收发机1566可包括与任何数量的3GPP(第三代合作伙伴计划)规范(诸 如在本公开的末尾处进一步详细讨论的长期演进(LTE)和第五代(5G)通信 系统)兼容的无线电。网络接口控制器(NIC)1568可被包括以提供到边缘云 1590的节点或到其他设备(诸如(例如,在网格中操作的)连接的边缘设备 1562)的有线通信。有线通信可提供以太网连接,或可基于其他类型的网络, 诸如控制器区域网(CAN)、本地互连网(LIN)、设备网络(DeviceNet)、 控制网络(ControlNet)、数据高速路+、现场总线(PROFIBUS)或工业以太 网(PROFINET),等等。附加的NIC 1568可被包括以实现到第二网络的连接, 例如,第一NIC 1568通过以太网提供到云的通信,并且第二NIC 1568通过另 一类型的网络提供到其他设备的通信。
鉴于从设备到另一组件或网络的适用通信类型的多样性,设备 使用的适用通信电路可以包括组件1564、1566、1568或1570中的任何一个或 多个或由组件1564、1566、1568或1570中的任何一个或多个来具体化。因此, 在各个示例中,用于通信(例如,接收、传送等)的适用装置可由此类通信电 路系统来具体化。
边缘计算节点1550可以包括或被耦合到加速电路系统1564,该 加速电路系统1564可以由一个或多个AI加速器、神经计算棒、神经形态硬件、 FPGA、GPU的布置、一个或多个SoC、一个或多个CPU、一个或多个数字信 号处理器、专用ASIC、或被设计用于完成一个或多个专有任务的其他形式的 专用处理器或电路系统来具体化。这些任务可以包括AI处理(包括机器学习、 训练、推断、和分类操作)、视觉数据处理、网络数据处理、对象检测、规则分析等。这些任务还可包括用于本文档中其他地方讨论的服务管理和服务操作 的特定边缘计算任务。
互连1556可将处理器1552耦合至用于连接附加的设备或子系 统的传感器中枢或外部接口1570。外部设备可包括传感器1572,诸如加速度 计、水平传感器、流量传感器、光学光传感器、相机传感器、温度传感器、全 球定位系统(GPS)传感器、压力传感器、气压传感器,等等。中枢或接口1570 可进一步用于将边缘计算节点1550连接至致动器1574,诸如功率开关、阀致 动器、可听声音发生器、视觉警告设备等。
在一些任选的示例中,各种输入/输出(I/O)设备可存在于边缘 计算节点1550内,或可连接至边缘计算节点1550。例如,显示器或其他输出 设备1584可被包括以显示信息,诸如传感器读数或致动器位置。输入设备1586 (诸如触摸屏或键区)可被包括以接受输入。输出设备1584可包括任何数量 的音频或视觉显示形式,包括:简单视觉输出,诸如,二进制状态指示器(例 如,LED);多字符视觉输出;或更复杂的输出,诸如,显示屏(例如,LCD 屏),其具有从边缘计算节点1550的操作生成或产生的字符、图形、多媒体 对象等的输出。在本系统的上下文中,显示器或控制台硬件可:用于提供边缘 计算系统的输出和接收边缘计算系统的输入;用于管理边缘计算系统的组件或 服务;标识边缘计算组件或服务的状态、或用于进行任何其他数量的管理或管 理功能或服务用例。
电池1576可为边缘计算节点1550供电,但是在其中边缘计算 节点1550被安装在固定位置的示例中,该边缘计算节点1550可具有耦合至电 网的电源,或者电池可以用作备用或用于临时功能。电池1576可以是锂离子 电池、金属-空气电池(诸如锌-空气电池、铝-空气电池、锂-空气电池),等 等。
电池监测器/充电器1578可被包括在边缘计算节点1550中以跟 踪电池1576(如果包括的话)的充电状态(SoCh)。电池监测器/充电器1578 可用于监测电池1576的其他参数以提供失效预测,诸如电池1576的健康状态 (SoH)和功能状态(SoF)。电池监测器/充电器1578可包括电池监测集成电 路,诸如来自线性技术公司(Linear Technologies)的LTC4020或LTC2990、 来自亚利桑那州的凤凰城的安森美半导体公司(ON Semiconductor)的 ADT7488A、或来自德克萨斯州达拉斯的德州仪器公司的UCD90xxx族的IC。 电池监测器/充电器1578可通过互连1556将关于电池1576的信息传递至处理 器1552。电池监测器/充电器1578也可包括使处理器1552能够直接监测电池 1576的电压或来自电池1576的电流的模数(ADC)转换器。电池参数可被用 于确定边缘计算节点1550可执行的动作,诸如传输频率、网格网络操作、感 测频率,等等。
功率块1580或耦合至电网的其他电源可与电池监测器/充电器 1578耦合以对电池1576充电。在一些示例中,功率块1580可用无线功率接收 机代替,以便例如通过边缘计算节点1550中的环形天线来无线地获得功率。 无线电池充电电路(诸如来自加利福尼亚州的苗比达市的线性技术公司的 LTC4020芯片,等等)可被包括在电池监测器/充电器1578中。可以基于电池 1576的尺寸并且因此基于所要求的电流来选择特定的充电电路。可使用由无线 充电联盟(Airfuel Alliance)颁布的Airfuel标准、由无线电力协会(WirelessPower Consortium)颁布的Qi无线充电标准、或由无线电力联盟(Alliance for WirelessPower)颁布的Rezence充电标准等等来执行充电。
存储1558可包括用于实现本文中公开的技术的软件、固件或硬 件命令形式的指令1582。虽然此类指令1582被示出为被包括在存储器1554 和存储1558中的代码块,但是可以理解,可用例如被建立到专用集成电路 (ASIC)中的硬连线电路替换代码块中的任一个。
在示例中,经由存储器1554、存储1558或处理器1552提供的 指令1582可被具体化为非瞬态机器可读介质1560,该非瞬态机器可读介质 1560包括用于指导处理器1552执行边缘计算节点1550中的电子操作的代码。 处理器1552可通过互连1556访问非瞬态机器可读介质1560。例如,非瞬态机 器可读介质1560可由针对存储1558所描述的设备来具体化,或者可包括特定 的存储单元,诸如光盘、闪存驱动器或任何数量的其他硬件设备。非瞬态机器 可读介质1560可包括用于指示处理器1552执行例如像参照上文中描绘的操作 和功能的(多个)流程图和(多个)框图而描述的特定的动作序列或动作流的 指令。如本文所适用,术语“机器可读介质”和“计算机可读介质”是可互换的。
在进一步的示例中,机器可读介质也包括任何有形介质,该有 形介质能够存储、编码或携带供由机器执行并且使机器执行本公开方法中的任 何一种或多种方法的指令,或者该有形介质能够储存、编码或携带由此类指令 利用或与此类指令相关联的数据结构。“机器可读介质”因此可包括但不限于固 态存储器、光学介质和磁介质。机器可读介质的特定示例包括非易失性存储器, 作为示例,包括但不限于:半导体存储器设备(例如,电可编程只读存储器 (EPROM)、电可擦除可编程只读存储器(EEPROM)和闪存设备);诸如 内部硬盘及可移除盘之类的磁盘;磁光盘;以及CD-ROM和DVD-ROM盘。 可使用传输介质,经由网络接口设备,利用若干传输协议中的任何一种协议(例 如,HTTP),进一步通过通信网络来传送或接收由机器可读介质具体化的指 令。
机器可读介质可以由能够以非瞬态格式主管数据的存储设备或 其他装置提供。在示例中,存储在机器可读介质上或以其他方式提供在机器可 读介质上的信息可以表示指令,诸如指令本身或者可以从中导出指令的格式。 可以从中导出指令的该格式可以包括源代码、经编码的指令(例如,以压缩或 加密的形式)、经封装的指令(例如,分成多个封装)等。表示机器可读介质 中的指令的信息可以通过处理电路系统处理成指令来实现本文所讨论的任何 操作。例如,从(例如,由处理电路系统进行的处理的)信息中导出指令可以 包括:(例如,从源代码、目标代码等)编译、解释、加载、组织(例如,动 态地或静态地进行链接)、编码、解码、加密、解密、打包、拆包,或者以其 他方式将信息操纵到指令中。
在示例中,指令的推导可以包括(例如,通过处理电路系统) 对信息进行汇编、编译、或解释,以从机器可读介质提供的一些中间或预处理 的格式创建指令。当信息以多个部分提供时,可以对其进行组合、拆包和修改 以创建指令。例如,信息可以处于一个或若干远程服务器上的多个经压缩的源 代码封装(或目标代码、或二进制可执行代码等)中。源代码封装可以在通过 网络传输时被加密,并且可以在本地机器处被解密、被解压缩、(如果必要的 话)被汇编(例如,被链接),并且被编译或被解释(例如被编译或被解释成库、 独立的可执行文件等),并且由本地机器执行。
机器可执行指令1582可以被存储在大容量存储设备728中,存 储在易失性存储器714中,存储在非易失性存储器716中,和/或存储在诸如 CD或DVD之类的可移除非瞬态计算机可读存储介质上。
从上文将会领会,已经公开了边缘环境中的工作负荷布置的示 例方法、设备和制品。所公开的方法、设备和制品通过基于边缘平台的可用功 率和/或热水平而调节在编排请求上花费的计算资源以在工作负荷处执行工作 负荷来提高使用计算设备的效率。所公开的方法、设备和制品相对应地涉及计 算机功能的一个或多个改善。
进一步的示例及其组合包括以下内容:示例1包括一种设备, 该设备包括:编排器,用于接收执行来自边缘环境内的边缘平台的工作负荷的 请求;以及能力控制器,用于分析请求以确定来自边缘平台的工作负荷的操作 参数,并基于操作参数来分析候选边缘层和边缘平台布置,该编排器基于满足 操作参数的候选边缘层和边缘平台布置来确定工作负荷的候选边缘层和边缘 平台布置。
示例2包括示例1的设备,其中当确定操作参数时,能力控制 器用于导出操作参数所需的因素子集。
示例3包括示例1或2中的任何一个或多个的设备,其中因素 子集包括边缘平台的服务水平协议(SLA)属性。
示例4包括示例1-3中的任何一个或多个的设备,其中因素子 集包括安全性级别、准确性级别、边缘平台对其他微服务的依赖关系、边 缘环境中依赖关系的位置、或边缘平台的使用信息中的至少一者。
示例5包括示例1-4中的任何一个或多个的设备,其中能力控 制器用于估计边缘平台的资源需求,该资源需求包括基于因素子集的工作 负荷的功率测量、热测量、等待时间测量和带宽测量。
示例6包括示例1-5中的任何一个或多个的设备,其中能力控 制器用于基于更新的操作参数来更新资源需求。
示例7包括示例1-6中的任何一个或多个的设备,其中编排器 用于从候选边缘层和边缘平台布置中的每一个接收遥测数据。
示例8包括示例1-7中任何一个或多个的设备,其中能力控制 器用于确定候选边缘层和边缘平台布置中的每一个的资源可用性,资源可用性 对应于基于遥测数据的候选边缘层和边缘平台布置中的每一个处的功率可用 性、热可用性、等待时间可用性和带宽可用性。
示例9包括示例1-8中的任何一个或多个的设备,其中编排器 用于确定候选边缘层和边缘平台布置中的每一个的操作参数百分比,该操作参 数百分比与满足边缘平台的资源需求的边缘层和边缘平台布置的资源可用性 的百分比相对应,选择具有最佳操作参数百分比的边缘层和边缘平台布置作为 候选边缘层和边缘平台布置,并在候选边缘层和边缘平台布置处实现工作负荷。
示例10包括示例1-9中的任何一个或多个的设备,其中编排器 响应于候选边缘层和边缘平台布置中的每一个的操作参数百分比不满足阈值, 而调节资源需求和成本函数权重。
示例11包括一种设备,该设备包括:用于编排的装置,用于接 收执行来自边缘环境内的边缘平台的工作负荷的请求;以及用于控制能力的装 置,用于分析请求以确定来自边缘平台的工作负荷的操作参数,并基于操作参 数来分析候选边缘层和边缘平台布置,该编排装置基于满足操作参数的候选边 缘层和边缘平台布置来确定工作负荷的候选边缘层和边缘平台布置。
示例12包括示例11的设备,其中当确定操作参数时,能力控 制装置用于导出操作参数所需的因素子集。
示例13包括示例11或12中的任何一个或多个的设备,其中因 素子集包括边缘平台的服务水平协议(SLA)属性。
示例14包括示例11-13中的任何一个或多个的设备,其中因素 子集包括安全性级别、准确性级别、边缘平台对其他微服务的依赖关系、边缘 环境中依赖关系的位置、或边缘平台的使用信息中的至少一者。
示例15包括示例11-14中的任何一个或多个的设备,其中能力 控制装置用于估计边缘平台的资源需求,该资源需求包括基于因素子集的工作 负荷的功率测量、热测量、等待时间测量和带宽测量。
示例16包括示例11-15中的任何一个或多个的设备,其中能力 控制装置用于基于更新的操作参数来更新资源需求。
示例17包括示例11-16中的任何一个或多个的设备,其中编排 装置用于从候选边缘层和边缘平台布置中的每一个接收遥测数据。
示例18包括示例11-17中任何一个或多个的设备,其中能力控 制装置用于确定候选边缘层和边缘平台布置中的每一个的资源可用性,资源可 用性对应于基于遥测数据的候选边缘层和边缘平台布置中的每一个处的功率 可用性、热可用性、等待时间可用性和带宽可用性。
示例19包括示例11-18中的任何一个或多个的设备,其中编排 装置用于确定候选边缘层和边缘平台布置中的每一个的操作参数百分比,该操 作参数百分比与满足边缘平台的资源需求的边缘层和边缘平台布置的资源可 用性的百分比相对应,选择具有最佳操作参数百分比的边缘层和边缘平台布置 作为候选边缘层和边缘平台布置,并在候选边缘层和边缘平台布置处实现工作 负荷。
示例20包括示例11-19中的任何一个或多个的设备,其中编排 装置响应于候选边缘层和边缘平台布置中的每一个的操作参数百分比不满足 阈值,而调节资源需求和成本函数权重。
示例21包括一种非瞬态计算机可读介质,该介质包括数据,该 数据可被配置为可执行指令,并且当被配置且被执行时,使至少一个处理器用 于至少访问执行来自边缘环境内的边缘平台的工作负荷的请求,分析该请求以 确定来自边缘平台的工作负荷的操作参数,基于操作参数来分析候选边缘层和 边缘平台布置,并基于满足操作参数的候选边缘层和边缘平台布置来确定工作 负荷的候选边缘层和边缘平台布置。
示例22包括示例21的非瞬态计算机可读介质,其中指令在被 配置且被执行时使至少一个处理器用于在确定操作参数时导出操作参数所需 的因素子集。
示例23包括示例21或22中的任何一个或多个的非瞬态计算机 可读介质,其中因素子集包括边缘平台的服务水平协议(SLA)属性。
示例24包括示例21-23中的任何一个或多个的非瞬态计算机可 读介质,其中因素子集包括安全性级别、准确性级别、边缘平台对其他微服务 的依赖关系、边缘环境中依赖关系的位置、或边缘平台的使用信息中的至少一 者。
示例25包括示例21-24中的任何一个或多个的非瞬态计算机可 读介质,其中指令在被配置且被执行时使至少一个处理器用于估计边缘平台的 资源需求,该资源需求包括基于因素的子集的工作负荷的功率测量、热测量、 等待时间测量和带宽测量。
示例26包括示例21-25中的任何一个或多个的非瞬态计算机可 读介质,其中指令在被配置且被执行时使至少一个处理器用于基于更新的操作 参数来更新资源需求。
示例27包括示例21-26中的任何一个或多个的非瞬态计算机可 读介质,其中指令在被配置且被执行时使至少一个处理器用于从候选边缘层 和边缘平台布置中的每一个接收遥测数据。
示例28包括示例21-27中任何一个或多个的非瞬态计算机可读 介质,其中指令在被配置且被执行时使至少一个处理器用于确定候选边缘层和 边缘平台布置中的每一个的资源可用性,资源可用性对应于基于遥测数据的候 选边缘层和边缘平台布置中的每一个处的功率可用性、热可用性、等待时间可 用性和带宽可用性。
示例29包括示例21-28中的任何一个或多个的非瞬态计算机可 读介质,其中指令在被配置且被执行时使至少一个处理器用于确定候选边缘层 和边缘平台布置中的每一个的操作参数百分比,该操作参数百分比与满足边缘 平台的资源需求的边缘层和边缘平台布置的资源可用性的百分比相对应,选择 具有最佳操作参数百分比的边缘层和边缘平台布置作为候选边缘层和边缘平 台布置,并在候选边缘层和边缘平台布置处实现工作负荷。
示例30包括示例21-29中的任何一个或多个的非瞬态计算机可 读介质,其中指令在被配置且被执行时使至少一个处理器用于响应于候选边 缘层和边缘平台布置中的每一个的操作参数百分比不满足阈值,而调节资 源需求和成本函数权重。
示例31包括一种方法,该方法包括:接收执行来自边缘环境内 的边缘平台的工作负荷的请求;分析请求以确定来自边缘平台的工作负荷的操 作参数,并基于操作参数来分析候选边缘层和边缘平台布置;以及基于满足操 作参数的候选边缘层和边缘平台布置来确定工作负荷的候选边缘层和边缘平 台布置。
示例32包括示例31的方法,其中确定操作参数进一步包括导 出操作参数所需的因素子集。
示例33包括示例31或32中的任何一个或多个的方法,其中因 素子集包括边缘平台的服务水平协议(SLA)属性。
示例34包括示例31-33中的任何一个或多个的方法,其中因素 子集包括安全性级别、准确性级别、边缘平台对其他微服务的依赖关系、边缘 环境中依赖关系的位置、或边缘平台的使用信息中的至少一者。
示例35包括示例31-34中的任何一个或多个的方法,其中确定 操作参数包括估计边缘平台的资源需求,该资源需求包括基于因素的子集的工 作负荷的功率测量、热测量、等待时间测量和带宽测量。
示例36包括示例31-35中的任何一个或多个的方法,进一步包 括基于更新的操作参数来更新资源需求。
示例37包括示例31-36中的任何一个或多个的方法,进一步包 括从候选边缘层和边缘平台布置中的每一个接收遥测数据。
示例38包括示例31-37中的任何一个或多个的方法,其中分析 候选边缘层和边缘平台布置包括确定候选边缘层和边缘平台布置中的每一 个的资源可用性,资源可用性对应于基于遥测数据的候选边缘层和边缘平 台布置中的每一个处的功率可用性、热可用性、等待时间可用性和带宽可 用性。
示例39包括示例31-38中的任何一个或多个的方法,其中确定 边缘平台的候选边缘层和边缘平台布置包括:确定候选边缘层和边缘平台布置 中的每一个的操作参数百分比,操作参数百分比与满足边缘平台的资源需求的 边缘层和边缘平台布置的资源可用性的百分比相对应;选择具有最佳操作参数 百分比的边缘层和边缘平台布置作为候选边缘层和边缘平台布置;以及实施候 选边缘层和边缘平台布置处的工作负荷。
示例40包括示例31-39中的任何一个或多个的方法,进一步包 括响应于候选边缘层和边缘平台布置中的每一个的操作参数百分比不满足阈 值,而调节资源需求和成本函数权重。
示例41是一种非瞬态计算机可读介质包括,包括用于执行示例 31-40中的任一项的指令。
示例42是一种边缘计算网关,该边缘计算网关包括用于执行示 例31-40中的任一项的处理电路系统。
示例43包括一种方法,该方法包括:接收边缘环境内执行微云 的请求;分析请求以确定微云的操作参数,基于操作参数来分析候选边缘层和 边缘平台布置;以及基于满足操作参数的候选边缘层和边缘平台布置来确定微 云的候选边缘层和边缘平台布置。
示例44包括示例43的方法,其中确定操作参数进一步包括导 出操作参数所需的因素子集。
示例45包括示例43或44中的任何一个或多个的方法,其中因 素子集包括微云的服务水平协议(SLA)属性。
示例46包括示例43-45中的任何一个或多个的方法,其中因素 子集包括安全性级别、准确性级别、微云对其他微服务的依赖关系、边缘环境 中依赖关系的位置、或微云的使用信息中的至少一者。
示例47包括示例43-46中的任何一个或多个的方法,其中确定 操作参数包括估计微云的资源需求,该资源需求包括基于因素子集的微云的功 率测量、热测量、等待时间测量和带宽测量。
示例48包括示例43-47中的任何一个或多个的方法,进一步包 括基于更新的操作参数来更新资源需求。
示例49包括示例43-48中的任何一个或多个的方法,进一步包 括从候选边缘层和边缘平台布置中的每一个接收遥测数据。
示例50包括示例43-49中的任何一个或多个的方法,其中分析 候选边缘层和边缘平台布置包括确定候选边缘层和边缘平台布置中的每一个 的资源可用性,资源可用性对应于基于遥测数据的候选边缘层和边缘平台布置 中的每一个处的功率可用性、热可用性、等待时间可用性和带宽可用性。
示例51包括示例43-50中的任何一个或多个的方法,其中确定 微云的候选边缘层和边缘平台布置包括:确定候选边缘层和边缘平台布置中的 每一个的操作参数百分比,操作参数百分比与满足微云的资源需求的边缘层和 边缘平台布置的资源可用性的百分比相对应;选择具有最佳操作参数百分比的 边缘层和边缘平台布置作为候选边缘层和边缘平台布置;以及在候选边缘层和 边缘平台布置处实现微云。
示例52包括示例43-51中的任何一个或多个的方法,进一步包 括响应于候选边缘层和边缘平台布置中的每一个的操作参数百分比不满足阈 值,而调节资源需求和成本函数权重。
示例53是一种非瞬态计算机可读介质包括,包括用于执行示例43-52中的任一项的指令。
示例54是一种边缘计算网关,该边缘计算网关包括用于执行示 例43-52中的任一项的处理电路系统。
示例55包括一种方法,该方法包括:接收边缘环境内执行微云 的请求;分析请求以确定微云的操作参数,基于操作参数来分析候选边缘层布 置;以及基于满足操作参数的候选边缘层布置来确定微云的候选边缘层布置。
示例56包括示例55的方法,其中确定操作参数进一步包括导 出操作参数所需的因素子集。
示例57包括示例55或56中的任何一个或多个的方法,其中因 素子集包括微云的服务水平协议(SLA)属性。
示例58包括示例55-57中的任何一个或多个的方法,其中因素 子集包括安全性级别、准确性级别、微云对其他微服务的依赖关系、边缘环境 中依赖关系的位置、或微云的使用信息中的至少一者。
示例59包括示例55-58中的任何一个或多个的方法,其中确定 操作参数包括估计微云的资源需求,该资源需求包括基于因素的子集的微云的 功率测量、热测量、等待时间测量和带宽测量。
示例60包括示例55-59中的任何一个或多个的方法,进一步包 括基于更新的操作参数来更新资源需求。
示例61包括示例55-60中的任何一个或多个的方法,进一步包 括从候选边缘层布置中的每一个接收遥测数据。
示例62包括示例55-61中的任何一个或多个的方法,其中分析 候选边缘层布置包括确定候选边缘层布置中的每一个的资源可用性,资源可用 性对应于基于遥测数据的候选边缘层布置中的每一个处的功率可用性、热可用 性、等待时间可用性和带宽可用性。
示例63包括示例55-62中的任何一个或多个的方法,其中确定 微云的候选边缘层布置包括:确定候选边缘层布置中的每一个的操作参数百分 比,操作参数百分比与满足微云的资源需求的边缘层布置的资源可用性的百分 比相对应;选择具有最佳操作参数百分比的边缘层布置作为候选边缘层布置; 以及在候选边缘层布置处实现微云。
示例64包括示例55-63中的任何一个或多个的方法,进一步包 括响应于候选边缘层布置中的每一个的操作参数百分比不满足阈值,而调节资 源需求和成本函数权重。
示例65是一种非瞬态计算机可读介质包括,包括用于执行示例 55-64中的任一项的指令。
示例66是一种边缘计算网关,该边缘计算网关包括用于执行示 例55-64中的任一项的处理电路系统。
尽管本文中已公开了某些示例方法、装置和制品,但本专利涵 盖的范围并不限于此。相反,本专利涵盖落入本专利示例范围内的全部方法、 装置和制品。
所附的权利要求由此通过本参考被并入到具体实施方式中,其 中每一项权利要求其本身作为本公开的单独的实施例。

Claims (25)

1.一种用于边缘环境中的工作负荷布置的设备,所述设备包括:
编排器,用于接收执行来自边缘环境内的边缘平台的工作负荷的请求;以及
能力控制器,用于:
分析所述请求以确定来自所述边缘平台的所述工作负荷的操作参数;以及
基于所述操作参数来分析候选边缘层和边缘平台布置,所述编排器用于基于满足所述操作参数的候选边缘层和边缘平台布置来确定所述工作负荷的候选边缘层和边缘平台布置。
2.如权利要求1所述的设备,其特征在于,当确定所述操作参数时,所述能力控制器用于导出所述操作参数所需的因素子集。
3.如权利要求2所述的设备,其特征在于,所述因素子集包括所述边缘平台的服务水平协议SLA属性。
4.如权利要求2所述的设备,其特征在于,所述因素子集包括安全性级别、准确性级别、所述边缘平台对其他微服务的依赖关系、所述边缘环境中依赖关系的位置、或所述边缘平台的使用信息中的至少一者。
5.如权利要求1所述的设备,其特征在于,所述能力控制器用于估计所述边缘平台的资源需求,所述资源需求包括基于所述因素子集的所述工作负荷的功率测量、热测量、等待时间测量和带宽测量。
6.如权利要求5所述的设备,其特征在于,所述能力控制器用于基于更新的操作参数来更新所述资源需求。
7.一种计算机可读介质,包括数据,所述数据能被配置成可执行指令并且在被配置且被执行时使得至少一个处理器用于至少:
访问执行来自边缘环境内的边缘平台的工作负荷的请求;
分析所述请求以确定来自所述边缘平台的所述工作负荷的操作参数;
基于所述操作参数来分析候选边缘层和边缘平台布置;以及
基于满足所述操作参数的候选边缘层和边缘平台布置来确定所述工作负荷的候选边缘层和边缘平台布置。
8.如权利要求7所述的计算机可读介质,其中所述指令在被配置且被执行时使所述至少一个处理器用于在确定所述操作参数时导出所述操作参数所需的因素子集。
9.如权利要求8所述的计算机可读介质,其特征在于,所述因素子集包括所述边缘平台的服务水平协议SLA属性。
10.如权利要求8所述的计算机可读介质,其特征在于,所述因素子集包括安全性级别、准确性级别、所述边缘平台对其他微服务的依赖关系、所述边缘环境中依赖关系的位置、或所述边缘平台的使用信息中的至少一者。
11.如权利要求7所述的计算机可读介质,其中所述指令在被配置且被执行时使所述至少一个处理器用于估计所述边缘平台的资源需求,所述资源需求包括基于所述因素子集的所述工作负荷的功率测量、热测量、等待时间测量和带宽测量。
12.如权利要求11所述的计算机可读介质,其中所述指令在被配置且被执行时使所述至少一个处理器用于基于更新的操作参数来更新所述资源需求。
13.一种用于边缘环境中的工作负荷布置的设备,所述设备包括:
用于编排的装置,用于接收执行来自边缘环境内的边缘平台的工作负荷的请求;以及
用于控制能力的装置,用于:
分析所述请求以确定来自所述边缘平台的所述工作负荷的操作参数;以及
基于所述操作参数来分析候选边缘层和边缘平台布置,并且所述用于编排的装置用于基于满足所述操作参数的候选边缘层和边缘平台布置来确定所述工作负荷的候选边缘层和边缘平台布置。
14.如权利要求13所述的设备,其特征在于,当确定所述操作参数时,所述能力控制装置用于导出所述操作参数所需的因素子集。
15.如权利要求14所述的设备,其特征在于,所述因素子集包括所述边缘平台的服务水平协议SLA属性。
16.如权利要求14所述的设备,其特征在于,所述因素子集包括安全性级别、准确性级别、所述边缘平台对其他微服务的依赖关系、所述边缘环境中依赖关系的位置、或所述边缘平台的使用信息中的至少一者。
17.如权利要求13所述的计算机可读介质,其中所述指令在被配置且被执行时使所述至少一个处理器用于估计所述边缘平台的资源需求,所述资源需求包括基于所述因素子集的所述工作负荷的功率测量、热测量、等待时间测量和带宽测量。
18.如权利要求17所述的计算机可读介质,其中所述指令在被配置且被执行时使所述至少一个处理器用于基于更新的操作参数来更新所述资源需求。
19.一种用于边缘环境中的工作负荷布置的方法,所述方法包括:
接收执行来自边缘环境内的边缘平台的工作负荷的请求;
分析所述请求以确定来自所述边缘平台的所述工作负荷的操作参数;
基于所述操作参数来分析候选边缘层和边缘平台布置;以及
基于满足所述操作参数的候选边缘层和边缘平台布置来确定所述工作负荷的候选边缘层和边缘平台布置。
20.如权利要求19所述的方法,其特征在于,确定所述操作参数进一步包括导出所述操作参数所需的因素子集。
21.如权利要求20所述的方法,其特征在于,所述因素子集包括所述边缘平台的服务水平协议SLA属性。
22.如权利要求20所述的方法,其特征在于,所述因素子集包括安全性级别、准确性级别、所述边缘平台对其他微服务的依赖关系、所述边缘环境中依赖关系的位置、或所述边缘平台的使用信息中的至少一者。
23.如权利要求19所述的方法,其特征在于,确定所述操作参数包括估计所述边缘平台的资源需求,所述资源需求包括基于所述因素子集的所述工作负荷的功率测量、热测量、等待时间测量和带宽测量。
24.如权利要求23所述的方法,进一步包括基于更新的操作参数来更新所述资源需求。
25.一种非瞬态计算机可读介质,包括用于执行权利要求19-24中任一项的方法的指令。
CN202110975655.0A 2020-09-25 2021-08-24 用于边缘环境中的工作负荷布置的方法、设备和制品 Pending CN114338679A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/033,324 2020-09-25
US17/033,324 US20210014114A1 (en) 2020-09-25 2020-09-25 Methods, apparatus, and articles of manufacture for workload placement in an edge environment

Publications (1)

Publication Number Publication Date
CN114338679A true CN114338679A (zh) 2022-04-12

Family

ID=74102529

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110975655.0A Pending CN114338679A (zh) 2020-09-25 2021-08-24 用于边缘环境中的工作负荷布置的方法、设备和制品

Country Status (4)

Country Link
US (1) US20210014114A1 (zh)
EP (1) EP3974980A1 (zh)
JP (1) JP2022054417A (zh)
CN (1) CN114338679A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116646932A (zh) * 2023-07-24 2023-08-25 山东华科信息技术有限公司 基于配电网云边端资源协同的高比例负荷接入方法及系统

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11902092B2 (en) * 2019-02-15 2024-02-13 Samsung Electronics Co., Ltd. Systems and methods for latency-aware edge computing
US11489613B2 (en) * 2019-05-14 2022-11-01 Infinera Corporation Out-of-band communication channel for subcarrier-based optical communication systems
WO2021032498A1 (en) * 2019-08-16 2021-02-25 Telefonaktiebolaget Lm Ericsson (Publ) Methods, apparatus and machine-readable media relating to machine-learning in a communication network
WO2021032497A1 (en) * 2019-08-16 2021-02-25 Telefonaktiebolaget Lm Ericsson (Publ) Methods, apparatus and machine-readable media relating to machine-learning in a communication network
US10986036B1 (en) * 2019-11-01 2021-04-20 Hon Lin Technology Co., Ltd. Method and apparatus for orchestrating resources in multi-access edge computing (MEC) network
US11240340B2 (en) * 2020-05-12 2022-02-01 International Business Machines Corporation Optimized deployment of analytic models in an edge topology
US11757986B2 (en) * 2020-10-23 2023-09-12 Dell Products L.P. Implementing an intelligent network of distributed compute nodes
US11722867B2 (en) * 2021-01-14 2023-08-08 Verizon Patent And Licensing Inc. Systems and methods to determine mobile edge deployment of microservices
CN112969157B (zh) * 2021-02-22 2022-10-18 重庆邮电大学 一种无人机网络负载均衡方法
EP4295560A1 (en) 2021-02-22 2023-12-27 Centurylink Intellectual Property LLC Edge-based artificial intelligence enablement
US11916729B2 (en) * 2021-03-12 2024-02-27 Edgio, Inc. Automated configuration of a content delivery network
US11593732B2 (en) * 2021-03-26 2023-02-28 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. License orchestrator to most efficiently distribute fee-based licenses
US11336536B1 (en) * 2021-03-31 2022-05-17 Landis+Gyr Innovations, Inc. Dynamic processing distribution for utility communication networks
CN113115362B (zh) * 2021-04-16 2023-04-07 三峡大学 协同边缘缓存方法及装置
US11822411B2 (en) 2021-05-06 2023-11-21 Apple Inc. Telemetry push aggregation
CN113435516B (zh) * 2021-06-29 2024-02-06 京东科技控股股份有限公司 数据分类方法和装置
US11921605B2 (en) 2021-10-21 2024-03-05 Hewlett Packard Enterprise Development Lp Managing applications in a cluster
US20230161631A1 (en) * 2021-11-19 2023-05-25 Juniper Networks, Inc. Performance tuning in a network system
US11558265B1 (en) * 2021-12-21 2023-01-17 Intel Corporation Telemetry targeted query injection for enhanced debugging in microservices architectures
US20230350708A1 (en) * 2022-04-28 2023-11-02 Microsoft Technology Licensing, Llc Dynamic on-demand datacenter creation
WO2023247038A1 (en) * 2022-06-23 2023-12-28 Telefonaktiebolaget Lm Ericsson (Publ) Secure utilization of external hardware
US11996992B2 (en) * 2022-06-28 2024-05-28 Intel Corporation Opportunistic placement of compute in an edge network
US20240073935A1 (en) * 2022-08-30 2024-02-29 Qualcomm Incorporated Method For Distributed Compute Operation Across Connected Devices

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10938736B2 (en) * 2017-10-18 2021-03-02 Futurewei Technologies, Inc. Dynamic allocation of edge computing resources in edge computing centers
US11611491B2 (en) * 2018-04-12 2023-03-21 Intel Corporation Edge computing service global validation
US11082525B2 (en) * 2019-05-17 2021-08-03 Intel Corporation Technologies for managing sensor and telemetry data on an edge networking platform
US11924060B2 (en) * 2019-09-13 2024-03-05 Intel Corporation Multi-access edge computing (MEC) service contract formation and workload execution
US20210250250A1 (en) * 2020-02-10 2021-08-12 Hewlett Packard Enterprise Development Lp Deployment of an application in a distributed computing environment
US11218546B2 (en) * 2020-03-25 2022-01-04 Intel Corporation Computer-readable storage medium, an apparatus and a method to select access layer devices to deliver services to clients in an edge computing system
US11089092B1 (en) * 2020-03-31 2021-08-10 EMC IP Holding Company LLC N-tier workload and data placement and orchestration
US20210004265A1 (en) * 2020-09-18 2021-01-07 Francesc Guim Bernat Elastic power scaling
US20210014133A1 (en) * 2020-09-25 2021-01-14 Intel Corporation Methods and apparatus to coordinate edge platforms

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116646932A (zh) * 2023-07-24 2023-08-25 山东华科信息技术有限公司 基于配电网云边端资源协同的高比例负荷接入方法及系统
CN116646932B (zh) * 2023-07-24 2023-12-15 山东华科信息技术有限公司 基于配电网云边端资源协同的高比例负荷接入方法及系统

Also Published As

Publication number Publication date
JP2022054417A (ja) 2022-04-06
US20210014114A1 (en) 2021-01-14
EP3974980A1 (en) 2022-03-30

Similar Documents

Publication Publication Date Title
US20210014114A1 (en) Methods, apparatus, and articles of manufacture for workload placement in an edge environment
NL2029029B1 (en) Methods and apparatus to coordinate edge platforms
US20210014113A1 (en) Orchestration of meshes
US20210004265A1 (en) Elastic power scaling
US20220255916A1 (en) Methods and apparatus to attest objects in edge computing environments
EP3998720A2 (en) Orchestrator execution planning using a distributed ledger
US20210021533A1 (en) Intelligent data forwarding in edge networks
CN115373795A (zh) 基于地理围栏的边缘服务控制和认证
CN114253793A (zh) 动态追踪控制
US20210021431A1 (en) Methods, apparatus and systems to share compute resources among edge compute nodes using an overlay manager
EP4109257A1 (en) Methods and apparatus to facilitate service proxying
US20210014303A1 (en) Methods and apparatus to manage quality of service with respect to service level agreements in a computing device
CN114679449A (zh) 中立主机边缘服务
US20210021484A1 (en) Methods and apparatus to schedule workloads based on secure edge to device telemetry
US20220116478A1 (en) Microservice latency reduction
US20210014301A1 (en) Methods and apparatus to select a location of execution of a computation
US20220138156A1 (en) Method and apparatus providing a tiered elastic cloud storage to increase data resiliency
US20220116289A1 (en) Adaptive cloud autoscaling
CN114253658A (zh) 边缘计算的持续测试、集成和部署管理
NL2033544B1 (en) Methods and apparatus to implement edge scalable adaptive-grained monitoring and telemetry processing for multi-qos services
US20220222584A1 (en) Heterogeneous compute-based artificial intelligence model partitioning
EP4109256A1 (en) Model propagation in edge architectures
US20230344804A1 (en) Methods and apparatus to increase privacy for follow-me services
EP4202669A1 (en) Methods and apparatus for secure execution on smart network interface cards
EP4109259A1 (en) Power-based adaptive hardware reliability on a device

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination