CN113924760A - 通信网络中的网络节点和方法 - Google Patents
通信网络中的网络节点和方法 Download PDFInfo
- Publication number
- CN113924760A CN113924760A CN201980097054.5A CN201980097054A CN113924760A CN 113924760 A CN113924760 A CN 113924760A CN 201980097054 A CN201980097054 A CN 201980097054A CN 113924760 A CN113924760 A CN 113924760A
- Authority
- CN
- China
- Prior art keywords
- service
- network
- prediction
- services
- network node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 116
- 238000004891 communication Methods 0.000 title claims abstract description 113
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 127
- 230000008569 process Effects 0.000 claims description 67
- 230000009471 action Effects 0.000 claims description 31
- 238000010801 machine learning Methods 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 19
- 230000002787 reinforcement Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims 2
- 230000002085 persistent effect Effects 0.000 description 20
- 230000005540 biological transmission Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 6
- 239000003795 chemical substances by application Substances 0.000 description 6
- 230000001976 improved effect Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000000670 limiting effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013468 resource allocation Methods 0.000 description 3
- 230000036541 health Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000036316 preload Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 244000132059 Carica parviflora Species 0.000 description 1
- 235000014653 Carica parviflora Nutrition 0.000 description 1
- 241000760358 Enodes Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/50—Network service management, e.g. ensuring proper service fulfilment according to agreements
- H04L41/5041—Network service management, e.g. ensuring proper service fulfilment according to agreements characterised by the time relationship between creation and deployment of a service
- H04L41/5054—Automatic deployment of services triggered by the service manager, e.g. service implementation by automatic configuration of network components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/50—Network service management, e.g. ensuring proper service fulfilment according to agreements
- H04L41/5041—Network service management, e.g. ensuring proper service fulfilment according to agreements characterised by the time relationship between creation and deployment of a service
- H04L41/5045—Making service definitions prior to deployment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/34—Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
提供了一种由网络节点执行的用于处理来自使用云基础设施的通信网络中的通信设备的对一个或多个服务的一个或多个即将到来的请求的方法。网络节点基于对服务的先前请求的历史数据获取(301)对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测,并考虑预测地获取(304)对一个或多个服务的一个或多个即将到来的请求所需的网络连接。此外,网络节点决定(307)用所获取的网络连接和/或所预测的实例数量来实例化服务。
Description
技术领域
本文的实施例涉及一种网络节点和其中的方法。具体而言,它们涉及使用云基础设施处理来自通信网络中的通信设备的即将到来的服务请求。
背景技术
在典型的通信网络中,无线设备(也称为无线通信设备、通信设备、移动台、站(STA)和/或用户设备(UE))通过局域网(例如,Wi-Fi网络或无线电接入网(RAN))与一个或多个核心网络(CN)进行通信。RAN覆盖被划分为服务区域或小区区域(也可以称为波束或波束组)的地理区域,其中每个服务区域或小区区域由诸如无线电接入节点(例如,Wi-Fi接入点)或无线电基站(RBS)(在某些网络中也可以标示为例如节点B(NodeB)、eNodeB(eNB)或如第五代(5G)中标示的gNB)的无线电网络节点服务。服务区域或小区区域是无线电网络节点提供无线电覆盖的地理区域。无线电网络节点通过在无线电频率上运行的空中接口与无线电网络节点范围内的无线设备进行通信。无线电网络节点在下行链路(DL)中进行到无线设备的通信,并在上行链路(UL)中进行来自无线设备的通信。
用于演进分组系统(EPS)(也称为第四代(4G)网络)的规范,已在第三代合作伙伴计划(3GPP)内完成,并且该工作在即将到来的3GPP版本中继续,例如规范化第五代(5G)网络(也称为5G新无线电(NR))。EPS包括演进通用陆地无线电接入网络(E-UTRAN)(也称为长期演进(LTE)无线电接入网络)以及演进分组核心(EPC)(也称为系统架构演进(SAE)核心网络)。E-UTRAN/LTE是3GPP无线电接入网络的变型,其中,无线电网络节点直接连接到EPC核心网络而不是第三代(3G)网络中的RNC。通常,在E-UTRAN/LTE中,3G RNC的功能分布在无线电网络节点(例如LTE中的eNodeB)和核心网络之间。这样,EPS的RAN具有基本上“扁平”的架构,该架构包括直接连接到一个或多个核心网络的无线电网络节点,即它们不连接到RNC。为了对此进行补偿,E-UTRAN规范定义了无线电网络节点之间的直接接口,该接口被标示为X2接口。
多天线技术可以显著提高通信系统的数据速率和可靠性。如果发射机和接收机都配备有多个天线,从而形成多输入多输出(MIMO)通信信道,则性能尤其会得到改善。这样的系统和/或相关技术通常被称为MIMO。
除了更快的峰值互联网连接速度外,5G规划的目标是要比当前的4G具有更高的容量,从而允许每面积单位的更多的移动宽带用户数量,并允许每月每用户消费更多或无限量的千兆字节数据。这使大部分人口在无法触及Wi-Fi热点时每天可以使用其移动设备流式处理(stream)高清媒体很多小时。5G的研发还旨在为机器对机器通信(也称为物联网)提供更好的支持,旨在与4G设备相比降低成本、降低电池消耗并降低延迟。
在现有技术的状况中,无服务器计算的使用正在扩大,因为它提供了一种在云环境中部署软件的可负担的方法。本文使用的无服务器计算可以说包括作为服务计算的任何类型的功能,其中基本上没有用于特定功能或进程的专用资源,并且在由外部系统通过网络接口向该功能或进程发出请求时按需分配资源。本文使用的云环境是指网络连接的计算资源池,例如中央处理单元(CPU)或随机存取存储器(RAM),伴随着一个接口,该接口允许声明式接口,从而实现将此类资源分配给进程,或通过网络连接公开的资源池。云环境在本文中还可被称为云基础设施或云。
无服务器方法的可负担性本质上是服务功能并不总是处于活动状态的事实的后果,这意味着它们不会占用CPU或RAM中的任何空间,除非对其有一些请求。服务功能也可被称为拉姆达(lambda)功能、拉姆达、逻辑功能、匿名功能、无服务器软件、无服务器功能等。本文使用的请求也可被称为远程调用或服务请求。当无服务器基础设施接收到来自远程节点的请求时,它会被缓存在请求缓存器中。请求的服务功能然后由无服务器基础设施控制器加载,并且然后由无服务器基础设施控制器为该特定逻辑功能分配的单个进程来服务。在短暂的非活动期后,服务功能被从CPU和RAM中卸载,因此不占用任何资源,并且因此不对云环境的主机和服务功能的所有者产生任何成本。通常,这种情况下的资源会进入空闲状态,并且现代CPU被优化为在空闲状态下不会消耗太多电量。因此,由于不再分配资源,它们可以可用于其他服务功能。此处一个吸引人的结果是,同一服务功能的多个版本可被部署在云环境中而不会产生任何成本,除非它们被用户使用。这意味着相同服务功能的先前版本可用于向后兼容目的。例如,在RESTful API中,功能将很可能会获取http://some_ip:some_port/my_function/v1或v2等形式的URI。
除了无服务器计算之外,在使用docker容器和虚拟机时可识别类似的交互模式。
Docker容器是一个开源软件开发平台,它使用容器技术,这是一种虚拟化形式。容器是一种标准的软件单元,可确保应用从一个计算环境运行到另一个计算环境。容器例如包括代码、运行时环境、系统工具、系统库和设置。
虚拟机(也称为VM)模拟计算机系统并能够运行应用和程序。可以在另一计算机环境中创建一个或多个虚拟机。虚拟机的实现可以包括硬件、软件或其组合。
无服务器计算与docker容器和/或虚拟机之间的主要区别在于,无服务器计算是真正按需的。另一方面,Docker容器和虚拟机需要提前部署,以便能够服务请求。
尽管无服务器计算提供了许多优势,但它至少存在两个缺点:高延迟和无法与其他服务建立持久连接。持久连接,也可以称为例如保持活动(keep-alive)、长寿命连接或连接重用,本文使用时对应于使用单个连接发送和接收多个请求/响应的概念,而不是为每个单个请求/响应对打开一个新连接。
高延迟:由于服务功能未处于运行状态,因此用户需要先等待,直到服务功能加载完毕。取决于服务功能的复杂性,这可能需要时间。
无法与其他服务建立持久连接:服务功能无法处理持久连接,因为一旦服务功能从CPU和/或RAM中驱逐,持久性就会被破坏。
持久连接的指令可被包括在服务功能中,但由于连接的状态没有被维护,每次加载服务功能时都需要重建每个连接,从而引入更多的延迟。
尽管无服务器计算方法具有优势,但延迟问题是反对使用无服务器计算的主要主张之一。
上述被识别的缺点也适用于docker容器和虚拟机。如果docker容器或虚拟机尚未实例化,则在使用docker容器和虚拟机的情况下的延迟更加突出。在虚拟机的情况下尤其不合适,因为它们在大小方面比docker镜像大。
发明内容
作为本文开发实施例的一部分,发明人已经识别了首先将讨论的问题。
通常,在现有技术的状态中,负载均衡器用于在特定服务功能或虚拟机或docker容器由于故障或由于旨在服务相同远程调用的其他类似实例的高使用率而无法用于远程调用时进行动态补偿。
负载均衡器考虑健康相关度量,以便决定何时增加或减少同一实例的冗余版本。健康相关度量可以包括诸如CPU或存储器(诸如RAM利用率)的因素,例如CPU使用率是否超过特定容量百分比。
此外,在现有技术的状态中,存在使用测量来预测服务功能、docker容器和/或虚拟机的使用并因此建立或拆除虚拟机的预测方法。
这些方法的一个缺点是它们主要关注于声明某人从基础设施期望什么,即在哪里放置什么、加载哪个软件、使用什么资源等。这样的关注是有限的,因为它不允许表达服务功能应该具有的可用性的级别。这些方法只能使服务功能在无服务器基础设施中持续可用或按需可用,但仍无法预测何时将需要服务功能。这些方法不考虑远程请求,只考虑远程请求的结果。此后,围绕增加或减少资源分配确定有根据的猜测。此外,由于有监督和/或无监督学习方法的性质,它们需要存储大量信息才能做出良好的预测。
本文实施例的一个目的是提高通信网络的性能。
根据本文实施例的第一方面,该目的通过一种由网络节点执行的用于使用云基础设施处理来自通信网络中的通信设备的一个或多个即将到来的对一个或多个服务的请求的方法来实现。
所述网络节点基于对服务的先前请求的历史数据,获取对所述一个或多个服务的所述一个或多个即将到来的请求所需的实例数量的预测,并考虑所述预测,获取对所述一个或多个服务的所述一个或多个即将到来的请求所需的网络连接。
此外,所述网络节点决定使用所获取的网络连接和/或所预测的实例数量来实例化服务。
根据本文实施例的第二方面,该目的通过一种使用所述云基础设施的所述通信网络中的网络节点来实现。所述节点被配置为处理来自所述通信设备的对一个或多个服务的一个或多个即将到来的请求。
所述网络节点进一步被配置为:
基于对服务的先前请求的历史数据,获取对所述一个或多个服务的所述一个或多个即将到来的请求所需的实例数量的预测,
考虑所述预测,获取对所述一个或多个服务的所述一个或多个即将到来的请求所需的网络连接,以及
决定使用所获取的网络连接和/或所预测的实例数量来实例化服务。
由于使得服务功能在需要时容易可用,因此实现了延迟的减少,并且因此服务请求不会在缓存器中花费太多资源或在缓存器中排队,从而减小缓存器的大小。此外,由于所述预测包括预测何时不需要服务功能,因此本文的实施例可以用于驱逐所述服务功能的目的,从而释放资源。因此,提高了所述通信网络的性能。
本文实施例的一个优点在于,与需要大量信息的更传统的机器学习技术相反,强化学习可用于进行此类预测,这允许根据本文实施例的系统在不存储太多信息的情况下随时间校准自身。
附图说明
参考附图更详细地描述本文的实施例的示例,其中:
图1是示出通信网络的示例的示意图。
图2a、b、c和d是示出通信网络中的组件的实施例的示意图。
图3是描绘由网络节点执行的方法的实施例的流程图。
图4是描绘通信网络中的组件的实施例的序列图。
图5a和b是示出网络节点的实施例的示意框图。
图6示意性地示出通过中间网络连接到主机计算机的电信网络。
图7是经由基站通过部分无线连接与用户设备进行通信的主机计算机的一般化的框图。
图8至图11是示出在包括主机计算机、基站和用户设备的通信系统中实现的方法的流程图。
具体实施方式
根据本文的实施例,可以预测和预加载服务功能。预加载服务功能例如意味着服务所必需的软件被存储在存储器中,使得例如CPU可以在一个或多个设备上执行它。
根据本文的实施例,改善了对服务功能的接入时间,因此有益于有线和/或无线网络和云基础设施。
此外,获取网络连接以启用与其他服务的持久连接,例如如果这是服务的要求。
因此,通过具有预加载的服务功能和检索到的网络连接,它们可以很容易地接入这些功能。这意味着例如当通信设备发送接入特定服务并利用网络连接的请求时,预加载的服务功能以及检索到的网络连接已经可用并且可以在没有不当延迟的情况下接入。
根据一些实施例,预测和预加载的进程可以由机器学习进程执行,例如基于强化的机器学习进程。通过使用机器学习进程,预测的准确性将随着时间的推移而提高,从而提高通信网络的性能。尽管可以使用任何机器学习技术来实现这种预测,但已经发现基于强化学习的技术特别合适。这是因为基于强化的技术使用奖励功能,它允许系统随着时间的推移进行校准,从而自我纠正。此外,诸如Q-学习的技术对于所需的数据量是有益的。
图1是描绘其中可以实现本文的实施例的通信网络100的示意性概览。通信网络100包括一个或多个RAN 150和一个或多个CN 140。通信网络100可使用5G NR但还可使用多种其他不同技术,例如Wi-Fi、(LTE)、高级LTE、宽带码分多址(WCDMA)、全球移动通信系统/GSM演进的增强数据速率(GSM/EDGE)、全球微波接入互操作性(WiMax)或超移动宽带(UMB),仅举几例可能的实施方式。
通信网络100使用云基础设施101,其可用于执行或部分执行这些方法。云基础设施101例如是云环境,即网络连接的计算资源池,诸如CPU或RAM或通过网络连接公开的资源池,如上所定义。
软件可被部署在云基础设施101中并且组件可被托管在云基础设施101中。软件和/或组件可以例如用于向云基础设施101中的其他组件和/或RAN 150或CN 140中的节点和/或RAN 150中的通信设备(这些又可以包括其他组件)发送请求和/或从其接收请求。
网络节点110在通信网络100中操作。网络节点可以包括如下所述的逻辑组件200。网络节点110可以是任何类型的网络节点,例如RAN 150中的网络节点、CN 140中的网络节点、云基础设施101中的网络节点和/或分布式节点。
如上所述,许多不同的网络节点在通信网络100中操作。网络节点(例如网络节点110)可以例如是诸如基站111、112、113中的任一个的网络节点,也称为第一基站111、第二基站112和第三基站113。网络节点111、112、113可以提供地理区域上的无线电覆盖。地理区域可被称为小区、服务区域、波束或波束组。在这种情况下,网络节点111、112、113可以每个是发送和接收点,例如诸如基站的无线电接入网络节点、例如无线电基站、诸如NodeB、演进型NodeB(eNB、eNode B)、NR Node B(gNB)、基站收发器站、无线电远程单元、接入点基站、基站路由器、无线电基站的传输布置、独立接入点、无线局域网(WLAN)接入点、接入点站(APSTA)、接入控制器、在设备到设备(D2D)通信中充当接入点或对等方的通信设备、或任何其他能够与由网络节点111、112、113服务的小区内的通信单元通信的任何其他网络单元,这例如取决于所使用的无线电接入技术和术语。
一个或多个通信设备(诸如通信设备121、122,也称为第一通信设备121和第二通信设备122)在通信网络100中操作。通信设备121、122可以每一个例如是经由一个或多个接入网(AN)(例如RAN)与一个或多个核心网络(CN)进行通信的移动站、非接入点(non-AP)STA、STA、用户设备和/或无线终端、NB-IoT设备、eMTC设备和CAT-M设备、Wi-Fi设备、LTE设备和NR设备。应理解,“通信设备”是非限制性术语,其意指任何终端、无线通信终端、无线设备、设备到设备(D2D)终端或节点,例如智能手机、笔记本电脑、移动电话、传感器、中继器、移动平板电脑或、在小区内通信的基站、或具有网络接口的任意设备,诸如嵌入式电脑。
在本文的一些实施例中,网络节点110包括逻辑组件200。如上所述,网络节点110又可被包括在以下任何一个或多个中:云基础设施101、RAN 150和CN 140。网络节点110还可以是分布式节点。因此,不同的逻辑组件200可以以适当的方式分布在云基础设施101、RAN 150和CN 140中的任何地方。多个逻辑组件可被包括在同一网络节点110中,或者它们可被包括在不同的网络节点110中并且仍然保持功能连接。
逻辑组件200在本文的一些实施例中用于在云基础设施101中(例如在无服务器架构中)服务请求。使用逻辑组件200,功能可被预加载在例如可被例如通信设备121、122使用的,诸如例如由基站111、112、113表示的节点110中。这意味着可以将软件放入存储器中以便CPU可以执行它从而提高能力。应当理解,措辞逻辑组件是非限制性术语,其在本文中表示用于执行特定任务的任何组件和/或逻辑功能。这样的任务可以例如是预测接下来要在无服务器基础设施中加载哪个功能。逻辑组件可以说是一个逻辑功能,因为它或者可以将自身表现为一个软件(以便任何计算机可以将其与其他功能一起运行),或者它可以通过专门设计用于特定任务的专用硬件来实现。这种专用硬件可以例如是专用机器学习处理器,例如Tensorflow处理单元和/或其他嵌入式设备,例如NVIDIA Jetson TX2、Google Coral等。
逻辑组件200可以例如包括集群管理器221、预测功能222、请求处理器223、功能储存库224、运行时环境组件225、网络连接高速缓存226和数据库227。这些在下面描述并在图2a-d中示出。
集群管理器221可以是任何类型的逻辑组件,其主要旨在处理在诸如云基础设施101的云中分配软件和资源的请求。要分配的软件可以例如是服务功能。要分配的资源可以例如是CPU、存储器、RAM、硬盘空间和GPU。
集群管理器221可以是例如符合kubernetes的,基于openstack或基于dockerswarm/docker compose的。这意味着集群管理器221可以说是在每个节点上运行并负责在单个机器上运行的内容的主要节点代理或最低级别的组件。例如,如果给定一组要运行的容器,它可以确保它们都在运行。
预测功能222可以预测何时将需要特定无服务器功能、该特定功能将需要多少副本以及该特定功能需要多少资源。预测功能可以由离线进程管理。离线进程,当在本文中使用时,可以例如意味着该进程没有用户接口,并且因此它会周期地以自动化方式执行任务,而无需期待用户输入。离线进程,例如可以由诸如UNIXTM守护进程(Daemon)的进程表示,该进程周期性地触发预测功能222以试图预测接下来需要哪个功能。预测功能与集群管理器221通信,集群管理器221验证该功能何时加载到存储器中。
请求处理器223可以从功能储存库224中获取预测的功能。
功能储存库224,也可称为拉姆达储存库,可将功能存储在云基础设施101(例如,无服务器云部署)中。在功能储存库224级别,功能可以简单地是静态二进制数据。
运行时环境组件225可以将功能或若干功能的主机表示为运行进程。运行时环境组件225可以与网络连接高速缓存226通信,以便获取该功能可能需要的任何网络连接,而不是从头开始重新创建它们。在本文的一些实施例中,运行时环境组件225也可被称为连接句柄,因为连接在特定时间可能可用或可能不可用。
网络连接高速缓存226,也可以称为持久连接高速缓存,可以构建和存储功能可能需要的持久连接。
数据库227可以表示任何类型的持久存储设备,并且持久连接可以应用于任何远程连接,例如到消息队列的远程连接。
图2a-d示出了通信网络100的一些示例实施例。图2a-d中描绘的实施例示出了包括位于云基础设施101、RAN 150和CN 140中的任何一个或多个中的一些逻辑组件200的不同场景。
图2a中示出了通信网络100的一些第一实施例的示例。在该示例中,逻辑组件预测功能222、网络连接高速缓存226和数据库227位于云基础设施101中。
图2b中示出了通信网络100的一些第二实施例的示例。在该示例中,逻辑组件数据库227位于云基础设施101中,而逻辑组件预测功能222和网络连接高速缓存226位于RAN150中。在这些实施例的一些中,逻辑组件预测功能222和网络连接高速缓存226位于节点110(例如基站111、112、113)中。
图2c中示出了通信网络100的一些第三实施例的示例。在该示例中,逻辑组件数据库227位于云基础设施101中,而逻辑组件预测功能222和网络连接高速缓存226位于CN 140中。
图2d中示出了通信网络100的一些第四实施例的示例。在该示例中,逻辑组件数据库227位于云基础设施101中,而逻辑组件预测功能222和网络连接高速缓存226中的一者或两者位于RAN 150中。在这些实施例的一些中,逻辑组件网络连接高速缓存226和预测功能222中的一者或两者位于通信设备121、122中。
在本文的一些实施例中,请求处理器223也可被包括在RAN 150中(诸如例如在网络节点110中)。网络节点110可以由基站111、112、113表示。此外,请求处理器223也可被包括在CN 140中。在这样的实施例中,交互可能有些不同,因为,一般而言,在RAN 150处,在确定向何处发送消息时,仅可能上升到MAC地址。因此,将进行对应的更改。
本文的一些实施例的相关场景可以例如是是使用将MAC地址与服务请求映射的查找表。以飞行分析为例,如果带有特定发动机的飞机着陆,它通常需要接入其中它上传有关其旅程的大量信息的分析功能。使用网络接口的MAC地址,MAC地址可被添加到查找表中,查找表然后被发送给对应的服务。随着时间的推移,本文的实施例的特征将作为请求来获取它并因此将能够预测它。如果不使用查找表,则需要更长的时间,因为系统必须等待直到MAC地址解析为IP地址并且然后解析为服务请求。
现在将参考在图3中所描绘的流程图描述由网络节点110执行的用于在使用云基础设施101的通信网络100中处理来自的通信设备121、122的对一个或多个服务的一个或多个即将到来的请求的方法的示例实施例。
该方法包括以下动作,这些动作可以以任何合适的顺序进行。可选的动作被呈现在图3中的虚线框中。
动作301
如上所述,预加载功能有助于通信网络100中的减少的延迟。
因此,根据示例场景,为了以有效方式预加载功能,网络节点110获取对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测。网络节点110可以例如获取在下一个时间单元中应该实例化特定服务功能的多少实例的预测。本文使用的时间单位可以指任何时间单位,例如接下来的5分钟、接下来的10分钟、接下来的一小时等,这取决于可用信息的种类。这种信息可以例如由来自运营或业务功能的其他信号引导。例如,如果存在不规律的事件,如果忽略事件之间的时间间隔,则预测可以基于先前的事件。这种信息对运营中心可以是可用的。在上面与飞行分析相关的示例中,带有飞机模型的飞行调度将改进预测,因为它只需要预测被调度的飞机着陆后会发生什么。在另一个示例中,可以预测着陆前会发生什么。
根据本文的实施例,预测是基于对服务的先前请求的历史数据。此类历史数据可能例如是随着时间推移的之前被需要以服务大量远程调用(例如对服务的请求)的服务功能、docker容器或虚拟机的量。可以将历史数据编译到可以在执行预测时查看的表格中。
在本文的一些实施例中,实例数量可以包括服务功能的实例的数量。
在一些实施例中,网络节点110获取的预测还可以包括对何时将需要特定服务功能,和/或需要为该服务分配多少资源的预测。
动作302
在一些实施例中,网络节点110可以通过执行对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测来获取预测。预测可以通过机器学习进程(例如,基于强化的机器学习进程)来执行。
预测可以作为一个数字给出,该数字可以是负数、正数或零。这种情况下的负数将指示预测的结果是应该删除服务功能的实例。
在本文的一些实施例中,预测的结果可以是相同强化学习算法的多个实例,但是用属于特定服务的不同数据进行训练。
在本文的一些实施例中,可以使用主要对应于神经网络的无模型强化学习算法(例如多重强化学习Q-学习),而不是尝试创建全局模型。此外,通过使用元数据注释无服务器功能并且然后应用向量空间相似性来查找相似功能,可以重用该预测。这种可能性对于自举(bootstrapping)目的可能有用。
动作303
在一些实施例中,网络节点110可以通过检索对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测来获取预测。网络节点110可以例如从通信网络中的另一网络节点和/或从通信设备121、122检索预测。
如上所述,负责执行预测的预测功能222可以例如位于云基础设施101中;在RAN150中,例如在基站111、112、113中;在CN 140中;和/或在通信设备121、122中。
动作304
根据示例场景,考虑该预测,网络节点110获取对服务的即将到来的请求所需的网络连接。
获取的此类网络连接可以例如是上面定义的持久网络连接。持久网络连接是独特的对象,并且因此分布式哈希表是一种可用于本文实施例目的的数据结构。这种数据结构还可以存储持久连接。使用哈希表,可以为每个连接指派唯一ID(也称为键)和值,该值将是与网络堆栈相关的OS相关信息,这将允许恢复该连接。
在本文的一些实施例中,获取外部连接,其随着时间的推移可能可用或可能不可用,因此可以引入诸如持久连接管理器(curator)之类的网络节点110。持久连接管理器可以定期检查连接是否仍处于活动状态,如果不是,则从哈希表中删除它们。
当在本文中使用时,获取网络连接包括获取到网络连接的句柄。这可能意味着本文的实施例可涉及网络连接被建立并正在某种池中等待,和/或网络连接仍然需要被建立(例如按需)的情况。
动作305
在一些实施例中,网络节点110可以通过确定对一个或多个服务的一个或多个即将到来的请求所需的网络连接来获取网络连接。这可以通过考虑预测来完成,并且如果发现有必要,添加附加信息。确定所需网络连接的进程可以由诸如在网络节点110中的运行时环境组件225和网络连接高速缓存226之类的组件来执行。对应的网络连接可以是例如隐含地附加在服务描述旁边,或者,通过内省,服务的编译器可以在服务的代码中指示可以导致调用外部服务的任何调用。
动作306
在一些实施例中,网络节点110可以通过检索与对一个或多个服务的一个或多个即将到来的请求所需的网络连接相关的信息来获取网络连接。这可以由诸如网络连接高速缓存226之类的组件来完成,例如如果需要恢复或重新创建已过期的连接。
此外,在该动作中,如果连接不可用,则可以实例化它们。
动作307
根据示例场景,网络节点110决定使用所获取的网络连接和/或预测的实例数量来实例化服务。
在示例实施例中,可以通过直接请求即按需的方式做出实例化的决定。在另一示例实施例中,实例化的决定可以在离线进程中做出,例如通过由离线进程周期地触发。
在本文的一些实施例中,公开特定服务应该被实例化多少次可以是机器学习算法的产物。
动作308
在一些实施例中,网络节点110可以从通信设备121、122接收对一个或多个服务的请求。
该请求可以例如包括接入特定服务的请求,该服务可取决于一个或多个服务功能。应当注意,动作308d不必在动作307之后发生。这同样适用于下面的动作308。如上所述,本文的动作可以以任何合适的顺序进行。动作308和309可以说是在线进程的一部分,其可以在动作307之前、同时或之后发生。此外,应当理解,动作308和309可以例如在请求-响应循环中被进行多于一次。
动作309
在一些实施例中,在从通信设备121、122接收到对服务的请求之后,网络节点110可以使用实例化的服务来提供对来自通信设备121、122的请求的响应。
在一些实施例中,一些动作可以在离线进程中执行并且一些动作可以在在线进程中执行。本文使用措辞离线进程的意思是包括在离线进程中的动作可以在例如来自通信设备121、122的进入网络节点110的特定请求之前、并行地或在其他方面在其背景中执行。措辞离线可以例如用于表示预先需求或基于预测需求进行调度。对应地,本文使用的措辞在线进程的意思是在在线进程中执行的动作是作为例如来自通信设备121、122的进入网络节点110的请求的结果而执行的。措辞在线可以例如用于表示按需,即当请求到来时。
应当理解,离线进程和在线进程是非限制性术语,表示对应于本文描述的示例进程的任何进程。
在一些实施例中,在加入服务功能的整个生命周期中提供预测组件。通常,加入预测组件可以包括:训练阶段,在该阶段用数据训练模型;评估阶段,在该阶段评估模型相对于精选数据集的准确性;然后是部署阶段,在该阶段模型上线,这意味着它可接收外部请求。这种通用方法适用于大多数机器学习模型,在强化学习中,这些步骤是在活动模型中现场执行的。
在由机器学习进程执行的一些实施例中,预测组件可以提前预测需要特定服务功能的多少实例并使它们可用于例如通信设备121、122。这样的实例的数量可以例如根据通信设备121、122的需要自动地缩小和/或扩大。
此外,在需要更大隔离性的情况下,预测组件可以考虑将服务功能提升到容器中的选项。本文使用的更大隔离性包括使用支持基于容器的部署的单独物理节点,从而受益于专用cgroup命名空间,但同时如果在镜像不是已经在那里的情况下将托管docker镜像从注册表移动到对应节点时需要数据转移,则至少起初稍微受损。在一般情况下,高速缓存用于缓解这种时延。
因此,还可以间接使用预测组件来建立和维护服务功能所要求的任何所需要的持久连接。
因此,基于对服务的先前请求的历史数据,获取对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测;考虑该预测,获取对一个或多个服务的一个或多个即将到来的请求所需的网络连接;以及决定使用所获取的网络连接和/或所预测的实例数量来实例化服务,有助于减少通信网络中的延迟。从而,提高了通信网络的性能。
现在将进一步解释和例示并更详细地描述上述方法。下面的描述可以参考上面的任何实施例。
图4描绘了根据本文的一些实施例可以如何加载服务功能的示例场景。
本文的动作虽然按顺序描绘,但可以以任何合适的顺序执行。
第一服务功能实例,简称为11,在本文中仅作为说明工具使用。应该理解,l1可以表示一个或多个服务功能实例,并且随后将相应地改变下面的动作。此外,术语l1可以表示服务功能的各种实例、此类功能的数量和/或与即将到来的对服务的请求所需的服务功能相关的需求。这种需求可能例如是特定服务功能的多个副本、需要一个或多个特定服务功能的时间、服务所需的网络连接,以及需要分配多少资源。此外,应当理解,当本文使用术语网络连接时,它可以表示一个或多个网络连接。
此外,应该认识到,本文描述的实施例不一定耦合到特定的操作系统或甚至特定的环境,例如基础设施即服务IaaS环境。
在示例场景中,下面的动作501-510可以在离线或在线进程中执行,而动作511可以在在线进程中执行。如上所述,包括在离线进程中的动作可以在例如来自通信设备121、122的进入网络节点110的特定请求之前、并行地或在其他方面在其后台执行。对应地,在线进程包括可以从对特定服务的请求从例如任何通信设备121、122进入的事件起执行的动作。
根据上文,网络节点110可以获取对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测。因此,集群管理器221向预测功能222发送(401)请求。在本文的一些实施例中,该请求用于预测第一服务功能实例11应该被加载的时间以及对一个或多个服务的一个或多个即将到来的请求将需要l1的多少实例。
接收到请求后,预测功能222基于对服务的先前请求的历史数据执行所请求的预测。
当预测已被执行时,预测功能222向集群管理器221发送(402)响应。在示例场景中,响应可以包括预测的结果。通过响应,集群管理器221被告知预测,例如应该在什么时候加载11以及对一个或多个服务的一个或多个即将到来的请求将需要l1的多少个实例。此动作与如上所述并在图3中描绘的动作301相关。
基于接收到的预测,集群管理器221向请求处理器223发送(403)请求,以取得与预测相关的l1的特定数量的实例。预测可能是负数,这意味着取得将是删除服务功能的实例。通过该取得,确保l1被加载到存储器中。
一旦接收到用于取得l1的请求,请求处理器223向功能储存库224发送(404)请求,以提供集群管理器221请求的l1。在功能储存库224级别,功能可以简单地是静态二进制数据。这是因为在功能存储库的前提下,关注可能主要放在高效存储和高效网络传输上。因此可以使用二进制(序列化的)表示。
功能储存库224提供l1的取得的数量的实例并且在响应(405)中将其发送给请求处理器223。l1可以是描述一个或多个服务功能的元数据的二进制表示,其是用于找出如何实例化一个或多个功能的有用信息。此类信息可以例如包括有关使用哪些软件组件、需要多少资源(例如(CPU/RAM))以及可能需要的任何外部网络接口的信息。
从功能储存库224接收到响应后,请求处理器223向集群管理器221发送(406)部署运行时环境的请求。在本文使用时,部署运行时环境意味着执行无服务器功能的真实实例化,其意味着从远程源检索任何所需的软件并从中创建运行进程以供操作系统管理。
集群管理器221然后向运行时环境组件225发送(407)部署运行时环境的请求。运行时环境组件可以表示一个功能或多个功能的主机并且运行一个或多个进程。
此后,运行时环境组件225向网络连接高速缓存226发送(408)请求以获取用于l1的持久连接。该动作涉及如上所述并在图3中描绘的动作304。该动作提示网络连接高速缓存226考虑预测地获取对一个或多个服务的一个或多个即将到来的请求所需的网络连接。
网络连接高速缓存226获取并随后在对运行时环境组件225的响应(409)中提供持久连接。
当l1的请求数量的实例已经被提供给请求处理器223,并且持久连接已经被提供给运行时环境组件225时,可以决定(410)用获取的网络连接和预测的实例数量来实例化服务。此动作与如上所述并在图3中描绘的动作307相关。
为了利用先前执行的动作,在该示例场景中,通信设备121、122可以发送(411)对服务的请求。该动作可以说是启动在线进程,并且可以涉及从通信设备121、122发送给网络节点110的对一个或多个服务的一个或多个即将到来的请求。
如上所述,逻辑组件200可被包括在相同或不同的网络节点110中,这些网络节点110又可被包括在云基础设施101、RAN 150和/或CN 140中。各种逻辑组件200的很多放置变化是可能的,超出本文举例说明的那些。
诸如服务功能、拉姆达功能、虚拟机和docker容器等的术语在本文中可以互换使用。这意味着例如功能存储库224可被docker注册表或虚拟机储存库替换,例如JFrog TM的artifactory。
机器学习
如上所述,对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测可以由机器学习进程执行,例如基于强化的机器学习进程。
尽管出于本文的目的可以使用不同的机器学习技术,但基于强化的机器学习已被识别为合适的选项。这种类型的机器学习的益处之一是它不需要大量数据。相反,基于强化的机器学习进程需要一个能够在算法正确执行预测时相应地奖励算法的奖励功能。这种预测可以例如是对服务功能的正确实例数量的预测。
为了建立强化学习进程,可以构建一个代理,随着时间的推移,它会例如通过维护适量的服务功能的活动实例来学习如何优化奖励。这可以通过使用马尔可夫决策进程(MDP)来更正式地定义。
MDP是离散时间随机控制进程。它提供了一个数学框架,用于在结果部分随机且部分受决策者控制的情况下对决策进行建模。
MDP包括一组可能的状态S,代理将在任何时间从中获取经验s,以及代理在任何时间a可采取的一组所有可能的动作A。
在本文的实施例中,该动作将例如添加或删除服务功能的实例。
在本文的实施例中,给定状态动作对(s,a),到新状态s’的转移概率T可由T(s,a)定义并且奖励R可由R(s,a)给出。
一般而言,Pa(s,s’)可用于表示在时间t在状态s中的动作a将导致在时间t+1的状态s’的概率。对应地,奖励可以用一般术语表示为Ra(s,s’),即从状态s转换到状态s'后接收的预期立即奖励。
因此,在MDP中的任何时间,代理都会被给予状态s,采取动作并接收新状态和奖励。
在本文的实施例中,代理需要知道在一天中的特定时间存在多少对诸如上面讨论的l1之类的特定服务功能的请求。
可以考虑不同级别的粒度,例如每半小时、每小时或每4小时,这取决于所需的准确性。
此外,活动服务功能的数量需要在当前和未来都产生满意的结果,使得可以避免活动服务功能的数量的频繁变化。
在这种情况下选择的策略梯度可以例如利用缓存器以便一次收集多个经验。鉴于可用的动作集可能有限,可以在存储器中维护此缓存器。
如上所述,在一些实施例中,机器学习进程(特别是诸如MDP之类的基于强化的机器学习进程)可以例如用于预测随着时间的推移的为大量远程调用提供服务所需的服务功能、docker容器或虚拟机的数量。这可以通过回顾历史数据的简明汇编来执行,其可以例如是Q-表。Q-表可比历史数据本身小很多,并且因此可适合存储器。
因此,通过使用机器学习进程(特别是基于强化的机器学习进程,例如MDP),能够预测对一个或多个服务的一个或多个即将到来的请求所需的实例数量。从而,将提高通信网络的性能。
在本文的一些实施例中,因此提供了可以利用自学习方法来确定何时将需要分配某些服务功能、docker容器或虚拟机以便为远程调用提供服务。本文使用的远程调用可以例如意味着实现特定动作的远程请求,它可以是来自远程系统通过网络发出的任何请求。本文的实施例例如专注于加载这些服务功能,而不是资源分配。资源分配问题可以通过使用管理程序或容器编排器来隐式解决。
使用本文的实施例,由于可以提前预加载功能,因此减轻了在无服务器计算中发现的限制。此外,还使用了持久连接,从而减少了进行远程调用的用户所观察到的任何延迟。
为了执行上述用于处理来自使用云基础设施101的通信网络100中的通信设备121、122的对一个或多个服务的一个或多个即将到来的请求的方法动作,网络节点110可以包括图5a和5b中描绘的布置。
网络节点110可以包括图5a中描绘的输入和输出接口500,其被配置为例如与通信设备121、122或另一个网络节点110通信。输入和输出接口500可以包括无线接收机(未示出)和无线发射机(未示出)。
网络节点110可被配置为例如借助于网络节点110中的第一获取单元520,基于对服务的先前请求的历史数据,获取对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测。
实例数量可适于包括服务功能的实例的数量。
对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测还可适于包括对何时将需要特定服务功能和/或需要为服务分配多少资源的预测。
对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测可适于由机器学习进程(例如基于强化的机器学习进程)执行。
网络节点110还可被配置为考虑该预测,例如借助于网络节点110中的第二获取单元535获取对一个或多个服务的一个或多个即将到来的请求所需的网络连接。
网络节点110还可被配置为例如借助于网络节点110中的决定单元550,决定以所获取的网络连接和/或所预测的实例数量来实例化服务。
网络节点110还可被配置为例如借助于网络节点110中的接收单元555,接收来自通信设备121、122的对一个或多个服务的请求。
网络节点110还可被配置为例如借助于网络节点110中的提供单元560,使用实例化的服务提供对来自通信设备121、122的请求的响应。
网络节点110还可被配置为通过被配置为例如借助于网络节点110中的执行单元525执行预测来获取网络连接的预测,和/或例如借助于网络节点110中的第一检索单元530检索预测。
网络节点110还可被配置为考虑预测,通过被配置为例如借助于网络节点110中的确定单元540确定对一个或多个服务的一个或多个即将到来的请求所需的网络连接,来获取即将到来的服务请求所需的网络连接,和/或例如借助于网络节点110中的第二检索单元545,检索与对一个或多个服务的一个或多个即将到来的请求所需的网络连接有关的信息。
网络节点110还可被配置为在离线进程中获取对即将到来的服务请求所需的实例数量的预测,获取即将到来的服务请求所需的网络连接,并决定用所获取的网络连接和/或预测的实例数量来实例化服务。网络节点110还可被配置为在在线进程中接收对服务的请求,并使用实例化的服务来提供对来自通信设备121、122的请求的响应。
本文的实施例可以通过相应的处理器或一个或多个处理器(例如图5a中描绘的网络节点110中的处理电路的处理器515)连同用于执行本文的实施例的功能和动作的相应计算机程序代码来实现。上述程序代码也可以作为计算机程序产品来提供,例如以携带在被加载到网络节点110中时用于执行本文的实施例的计算机程序代码的数据载体的形式。一个这样的载体可以是CD ROM光盘的形式。然而,使用其他数据载体(例如记忆棒)也是可行的。计算机程序代码还可以作为服务器上的纯程序代码提供并被下载到网络节点110。
网络节点110还可以包括存储器510,该存储器510包括一个或多个存储数据的存储器单元。存储器510包括可由网络节点110中的处理器执行的指令。
存储器510被布置为用于存储例如对一个或多个服务的一个或多个即将到来的请求所需的实例数量的预测、与对一个或多个服务的一个或多个即将到来的请求所需的网络连接相关的信息、阈值、数据分组、数据、配置和应用以在网络节点110中被执行时执行本文的方法。
上述网络节点110中的单元可以指模拟和数字电路的组合,和/或配置有例如当由相应的一个或多个处理器(例如上述处理器)执行时存储在网络节点110中的软件和/或固件的一个或多个处理器。这些处理器中的一个或多个以及其他数字硬件可被包括在单个专用集成电路(ASIC)中,或者数个处理器和各种数字硬件可被分布在数个单独的组件中,无论是单独封装还是组装成片上系统(SoC)。
在一些实施例中,计算机程序590包括指令,该指令在由至少一个处理器515执行时使网络节点110的至少一个处理器执行上述动作。
在一些实施例中,载体595包括计算机程序590,其中载体595是电子信号、光信号、电磁信号、磁信号、电信号、无线电信号、微波信号或计算机可读存储介质之一。
进一步的扩展和变化
参考图6,根据实施例,通信系统包括诸如通信网络100的电信网络3210,例如NR网络,诸如3GPP类型的蜂窝网络,其包括诸如无线电接入网的接入网3211和核心网络3214。接入网3211包括多个基站3212a、3212b、3212c,诸如无线电网络节点110,接入节点,AP STANB,eNB,gNB或其他类型的无线接入点,每个定义对应的覆盖区域3213a、3213b、3213c。每个基站3212a、3212b、3212c通过有线或无线连接3215可连接到核心网络3214。位于覆盖区域3213c中的第一用户设备(UE)(例如无线设备120,诸如非AP STA 3291)被配置为无线连接到对应的基站3212c或被对应的基站3212c寻呼。覆盖区域3213a中的第二UE 3292(例如第一或第二无线电节点110,120,或者诸如非AP STA)可无线地连接到对应的基站3212a。尽管在该示例中示出了多个UE 3291、3292,但是所公开的实施例同样适用于唯一UE在覆盖区域中或者唯一UE连接到对应基站3212的情况。
电信网络3210自身连接到主机计算机3230,该主机计算机可以体现在独立服务器、云实现的服务器、分布式服务器的硬件和/或软件中或作为服务器农场中的处理资源。主机计算机3230可以由服务提供商所有或控制,或者可以由服务提供商或代表服务提供商来操作。电信网络3210和主机计算机3230之间的连接3221、3222可以直接从核心网络3214延伸到主机计算机3230,或者可以经过可选的中间网络3220。中间网络3220可以是公共、私有或托管网络之一,也可以是它们中的一个以上的组合;中间网络3220(如果有的话)可以是骨干网或互联网;特别地,中间网络3220可以包括两个或更多个子网络(未示出)。
图6的通信系统整体上实现了所连接的UE 3291、3292之一与主机计算机3230之间的连接性。该连接性可被描述为过顶(Over-The-Top)(OTT)连接3250。主机计算机3230和连接的UE 3291、3292被配置为经由使用接入网3211、核心网络3214、任何中间网络3220以及可能的其他基础设施(未示出)作为中介的OTT连接3250来传递数据和/或信令。在OTT连接3250通过的参与的通信设备不知道上行链路和下行链路通信的路由的意义上,OTT连接3250可以是透明的。例如,可以不向基站3212通知或者不需要向基站3212通知传入下行的链路通信的过去路由,该下行链路通信具有源自主机计算机3230将被转发(例如,切换)给连接的UE3291的数据。类似地,基站3212不需要知道源自UE 3291的到主机计算机3230的传出上行链路通信的将来路由。
现在将参考图7描述在前面的段落中讨论的UE、基站和主机计算机的根据实施例的示例实现。在通信系统3300中,主机计算机3310包括硬件3315,硬件3315包括通信接口3316,通信接口3316被配置为建立和维护与通信系统3300的不同通信设备的接口的有线或无线连接。主机计算机3310还包括处理电路3318,其可以具有存储和/或处理能力。特别地,处理电路3318可以包括一个或多个适于执行指令的可编程处理器、专用集成电路、现场可编程门阵列或这些的组合(未示出)。主机计算机3310还包括软件3311,软件3311存储在主机计算机3310中或可由主机计算机3310访问并且可由处理电路3318执行。软件3311包括主机应用3312。主机应用3312可操作以向远程用户(例如通过终止于UE 3330和主机计算机3310的OTT连接3350连接的UE 3330)提供服务。在向远程用户提供服务时,主机应用3312可以提供使用OTT连接3350发送的用户数据。
通信系统3300还包括基站3320,基站3320设置在电信系统中并且包括使其能够与主机计算机3310和UE 3330进行通信的硬件3325。硬件3325可以包括通信接口3326以及无线电接口3327,通信接口3326用于建立和维护与通信系统3300的不同通信设备的接口的有线或无线连接,无线电接口3327用于建立和维护与位于由基站3320服务的覆盖区域(图7中未显示)中的UE 3330的至少无线连接3370。通信接口3326可被配置为促进到主机计算机3310的连接3360。连接3360可以是直接的,或者它可以通过电信系统的核心网(图7中未示出)和/或通过电信系统外部的一个或多个中间网络。在所示的实施例中,基站3320的硬件3325还包括处理电路3328,其可以包括一个或多个适于执行指令的可编程处理器、专用集成电路、现场可编程门阵列或这些的组合(未示出)。基站3320还具有内部存储的或可通过外部连接访问的软件3321。
通信系统3300还包括已经提到的UE 3330。它的硬件3335可以包括无线电接口3337,该无线电接口3337被配置为建立和维持与服务于UE 3330当前所在的覆盖区域的基站的无线连接3370。UE 3330的硬件3335还包括处理电路3338,其可以包括一个或多个适于执行指令的可编程处理器、专用集成电路、现场可编程门阵列或这些的组合(未示出)。UE3330还包括存储在UE 3330中或可由UE 3330访问并可由处理电路3338执行的软件3331。软件3331包括客户端应用3332。客户端应用3332可用于在主机计算机3310的支持下通过UE3330向人类或非人类用户提供服务。在主机计算机3310中,执行中的主机应用3312可以通过终止于UE 3330和主机计算机3310处的OTT连接3350与执行的客户端应用3332通信。在向用户提供服务时,客户端应用3332可以从主机应用3312接收请求数据,并响应于请求数据而提供用户数据。OTT连接3350可以传送请求数据和用户数据两者。客户端应用3323可以与用户交互以生成其提供的用户数据。
注意,图7所示的主机计算机3310、基站3320和UE 3330可以分别与图6的主机计算机3230、基站3212a、3212b、3212c之一以及UE 3291、3292之一相同。也就是说,这些实体的内部工作原理可以如图7所示,而独立的,周围网络拓扑结构可以是图6的那样。
在图7中,已经抽象地绘制了OTT连接3350,以示出主机计算机3310和用户设备3330之间经由基站3320的通信,而没有明确地参考任何中间设备以及经由这些设备的消息的精确路由。网络基础设施可以确定路由,可以将其配置为对UE 3330或对操作主机计算机3310的服务提供商或对两者隐藏。当OTT连接3350是活动的时,网络基础设施可以进一步做出决定,通过所述决定它动态地改变路由(例如,基于负载平衡考虑或网络的重新配置)。
UE 3330与基站3320之间的无线连接3370根据贯穿本公开描述的实施例的教导。各种实施例中的一个或多个改善使用OTT连接3350提供给UE 3330的OTT服务的性能,在OTT连接3350中无线连接3370形成最后的段。更精确地,这些实施例的教导可以改善数据速率、延迟、功耗,并从而提供益处,例如用户等待时间、放宽文件大小限制、具有更好的响应性、延长的电池寿命。
可以出于监控数据速率、延迟和一个或多个实施例在其上改善的其他因素的目的而提供测量过程。可能还存在可选的网络功能,用于响应于测量结果的变化而重新配置主机计算机3310和UE 3330之间的OTT连接3350。用于重新配置OTT连接3350的测量过程和/或网络功能可以在主机计算机3310的软件3311中或在UE 3330的软件3331中或两者中实现。在实施例中,传感器(未示出)可被部署在OTT连接3350通过的通信设备中或与之相关联。传感器可以通过提供以上例示的监控量的值或提供软件3311、3331可以从中计算或估计监控量的其他物理量的值来参与测量进程。OTT连接3350的重新配置可以包括消息格式、重传设置、优选的路由等;重新配置不需要影响基站3320,并且它对于基站3320可能是未知的或不可感知的。这种过程和功能在本领域中是已知的并且可以实践。在某些实施例中,测量可以涉及促进主机计算机3310对吞吐量、传播时间、延迟等的测量的专有UE信令。可以通过以下方式来实现测量:软件3311、3331促使使用OTT连接3350发送消息(特别是空消息或“假(dummy)”消息),同时监控传播时间、错误等。
图8是示出根据一个实施例的在通信系统中实现的方法的流程图。该通信系统包括主机计算机、诸如AP STA的基站以及诸如非AP STA的UE,它们可以是参考图6和图7描述的那些。为了简化本公开,在本部分将仅包括对图8的附图引用。在该方法的第一动作3410中,主机计算机提供用户数据。在第一动作3410的可选子动作3411中,主机计算机通过执行主机应用来提供用户数据。在第二动作3420中,主机计算机发起到UE的携带用户数据的传输。在可选的第三动作3430中,根据贯穿本公开所描述的实施例的教导,基站向UE发送在主机计算机发起的传输中携带的用户数据。在可选的第四动作3440中,UE执行与由主机计算机执行的主机应用相关联的客户端应用。
图9是示出根据一个实施例的在通信系统中实现的方法的流程图。该通信系统包括主机计算机、诸如AP STA的基站以及诸如非AP STA的UE,它们可以是参考图6和图7描述的那些。为了简化本公开,在本部分将仅包括对图9的附图引用。在该方法的第一动作3510中,主机计算机提供用户数据。在可选的子动作(未示出)中,主机计算机通过执行主机应用来提供用户数据。在第二动作3520中,主机计算机发起到UE的携带用户数据的传输。根据贯穿本公开描述的实施例的教导,传输可以经由基站通过。在可选的第三动作3530中,UE接收在所述传输中携带的用户数据。
图10是示出根据一个实施例的在通信系统中实现的方法的流程图。该通信系统包括主机计算机、诸如AP STA的基站以及诸如非AP STA的UE,它们可以是参考图6和图7描述的那些。为了简化本公开,在本部分将仅包括对图10的附图引用。在该方法的可选的第一动作3610中,UE接收由主机计算机提供的输入数据。附加地或替代地,在可选的第二动作3620中,UE提供用户数据。在第二动作3620的可选子动作3621中,UE通过执行客户端应用来提供用户数据。在第一动作3610的另一可选子动作3611中,UE执行客户端应用,该客户端应用响应于由主机计算机提供的接收到的输入数据来提供用户数据。在提供用户数据时,执行的客户端应用可以进一步考虑从用户接收的用户输入。不管提供用户数据的具体方式如何,UE在可选的第三子动作3630中发起用户数据到主机计算机的传输。在该方法的第四动作3640中,根据贯穿本公开描述的实施例的教导,主机计算机接收从UE发送的用户数据。
图11是示出根据一个实施例的在通信系统中实现的方法的流程图。该通信系统包括主机计算机、诸如AP STA的基站以及诸如非AP STA的UE,它们可以是参考图6和图7描述的那些。为了简化本公开,在本部分将仅包括对图11的附图引用。在该方法的可选的第一动作3710中,根据贯穿本公开描述的实施例的教导,基站从UE接收用户数据。在可选的第二动作3720中,基站发起所接收的用户数据到主机计算机的传输。在第三动作3730中,主机计算机接收由基站发起的传输中携带的用户数据。
当使用单词“包括”或“包含”时,应将其解释为非限制性的,即意味着“至少由……组成”。
本文的实施例不限于上述优选实施例。可以使用各种替代、修改和等同体。
Claims (20)
1.一种由网络节点(110)执行的用于处理来自使用云基础设施(101)的通信网络(100)中的通信设备(121、122)的对一个或多个服务的一个或多个即将到来的请求的方法,所述方法包括:
基于对服务的先前请求的历史数据,获取(301)对所述一个或多个服务的所述一个或多个即将到来的请求所需的实例数量的预测;
考虑所述预测,获取(304)对所述一个或多个服务的所述一个或多个即将到来的请求所需的网络连接;以及
决定(307)使用所获取的网络连接和/或所预测的实例数量来实例化服务。
2.根据权利要求1所述的方法,还包括:
从所述通信设备(121、122)接收(308)对所述一个或多个服务的请求,以及
使用所实例化的服务提供(309)对来自所述通信设备(121、122)的所述请求的响应。
3.根据权利要求1-2中任一项所述的方法,其中,所述获取(301)对所述一个或多个服务的所述一个或多个即将到来的请求所需的网络连接的所述预测进一步包括以下中的任何一个或多个:
执行(302)所述预测,和/或
检索(303)所述预测。
4.根据权利要求1-3中任一项所述的方法,其中,考虑所述预测而获取(304)对服务的所述即将到来的请求所需的所述网络连接进一步包括以下中的任何一个或多个:
确定(305)对所述一个或多个服务的所述一个或多个即将到来的请求所需的所述网络连接,和/或
检索(306)与对所述一个或多个服务的所述一个或多个即将到来的请求所需的所述网络连接相关的信息。
5.根据权利要求2或从属于权利要求2时的权利要求3-4的方法,其中,所述获取(301)对服务的所述即将到来的请求所需的所述实例数量的所述预测,所述获取(304)对服务的所述即将到来的请求所需要的所述网络连接,以及所述决定(305)使用所获取的网络连接和/或所预测的实例数量来实例化服务是在离线进程中执行的,并且其中,所述接收(306)对服务的所述请求以及使用所实例化的服务提供(307)对来自所述通信设备(121、122)的所述请求的所述响应是在在线进程中执行的。
6.根据权利要求1-5中任一项所述的方法,其中,所述实例数量包括服务功能的实例的数量。
7.根据权利要求1-6中任一项所述的方法,其中,对所述一个或多个服务的所述一个或多个即将到来的请求所需的所述实例数量的所述预测由机器学习进程执行。
8.根据权利要求7的方法,其中,所述机器学习进程是基于强化的机器学习进程。
9.根据权利要求1-8中任一项所述的方法,其中,由所述网络节点(110)获取(301)的对所述一个或多个服务的所述一个或多个即将到来的请求所需的所述实例数量的所述预测进一步包括预测:
何时将需要特定服务功能,和/或
需要为所述服务分配多少资源。
10.一种包括指令的计算机程序(590),所述指令当由处理器(515)执行时使所述处理器(515)执行根据权利要求1-9中任一项所述的动作。
11.一种包括根据权利要求10所述的计算机程序(590)的载体(595),其中,所述载体(595)是电子信号、光信号、电磁信号、磁信号、电信号、无线电信号、微波信号、或计算机可读存储介质中的一个。
12.一种被配置为处理来自使用云基础设施(101)的通信网络(100)中的通信设备(121、122)的对一个或多个服务的一个或多个即将到来的请求的网络节点(110),所述网络节点(110))进一步被配置为:
基于对服务的先前请求的历史数据,获取对所述一个或多个服务的所述一个或多个即将到来的请求所需的实例数量的预测;
考虑所述预测,获取对所述一个或多个服务的所述一个或多个即将到来的请求所需的网络连接;以及
决定使用所获取的网络连接和/或所预测的实例数量来实例化服务。
13.根据权利要求12所述的网络节点(110),还被配置为:
从所述通信设备(121、122)接收对所述一个或多个服务的请求,以及
使用所实例化的服务提供对来自所述通信设备(121、122)的所述请求的响应。
14.根据权利要求12-13中任一项所述的网络节点(110),其中,所述网络节点(110)还被配置为通过被配置为执行所述预测和/或检索所述预测来获取对网络连接的所述预测。
15.根据权利要求12-14中任一项所述的网络节点(110),其中,所述网络节点(110)还被配置为通过被配置为执行以下操作来考虑所述预测而获取对服务的所述即将到来的请求所需的所述网络连接:
确定对所述一个或多个服务的所述一个或多个即将到来的请求所需的所述网络连接,和/或
检索与对所述一个或多个服务的所述一个或多个即将到来的请求所需的所述网络连接相关的信息。
16.根据权利要求13或从属于权利要求13时的权利要求14-15的网络节点(110),其中,所述网络节点(110)还被配置为在离线进程中获取对服务的所述即将到来的请求所需的所述实例数量的所述预测、获取对服务的所述即将到来的请求所需的所述网络连接、以及决定使用所获取的网络连接和/或所预测的实例数量来实例化服务,并且其中,所述网络节点(110)被进一步配置为在在线进程中接收对服务的所述请求并使用所实例化的服务提供对来自所述通信设备(121、122)的所述请求的所述响应。
17.根据权利要求12-16中任一项所述的网络节点(110),其中,所述实例的数量适于包括服务功能的实例的数量。
18.根据权利要求12-17中任一项所述的网络节点(110),其中,对所述一个或多个服务的所述一个或多个即将到来的请求所需的所述实例数量的所述预测适于由机器学习进程执行。
19.根据权利要求18所述的网络节点(110),其中,所述机器学习进程适用于是基于强化的机器学习进程。
20.根据权利要求12-18中任一项所述的网络节点(110),其中,对所述一个或多个服务的所述一个或多个即将到来的请求所需的所述实例数量的所述预测还适于包括以下的预测:
何时将需要特定服务功能,和/或
需要为服务分配多少资源。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2019/064335 WO2020244730A1 (en) | 2019-06-03 | 2019-06-03 | Network node and methods in a communications network |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113924760A true CN113924760A (zh) | 2022-01-11 |
Family
ID=66810775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980097054.5A Pending CN113924760A (zh) | 2019-06-03 | 2019-06-03 | 通信网络中的网络节点和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220255814A1 (zh) |
EP (1) | EP3977679A1 (zh) |
CN (1) | CN113924760A (zh) |
WO (1) | WO2020244730A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11303534B2 (en) * | 2019-12-13 | 2022-04-12 | Hewlett Packard Enterprise Development Lp | Proactively accomodating predicted future serverless workloads using a machine learning prediction model and a feedback control system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160128059A1 (en) * | 2014-10-31 | 2016-05-05 | Theplatform, Llc | Methods And Systems For Communication Management |
EP3021521A1 (en) * | 2014-11-11 | 2016-05-18 | Alcatel Lucent | A method and system for scaling, telecommunications network and computer program product |
US20180219735A1 (en) * | 2015-07-28 | 2018-08-02 | British Telecommunications Public Limited Company | Network function virtualization |
US20190158364A1 (en) * | 2017-11-17 | 2019-05-23 | Huawei Technologies Co., Ltd. | Method and Apparatus for the Specification of a Network Slice Instance and Underlying Information Model |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108366082B (zh) * | 2017-01-26 | 2020-03-10 | 华为技术有限公司 | 扩容方法及扩容装置 |
US11601509B1 (en) * | 2017-11-28 | 2023-03-07 | Stripe, Inc. | Systems and methods for identifying entities between networks |
-
2019
- 2019-06-03 CN CN201980097054.5A patent/CN113924760A/zh active Pending
- 2019-06-03 US US17/616,242 patent/US20220255814A1/en active Pending
- 2019-06-03 EP EP19729478.8A patent/EP3977679A1/en not_active Withdrawn
- 2019-06-03 WO PCT/EP2019/064335 patent/WO2020244730A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160128059A1 (en) * | 2014-10-31 | 2016-05-05 | Theplatform, Llc | Methods And Systems For Communication Management |
EP3021521A1 (en) * | 2014-11-11 | 2016-05-18 | Alcatel Lucent | A method and system for scaling, telecommunications network and computer program product |
US20180219735A1 (en) * | 2015-07-28 | 2018-08-02 | British Telecommunications Public Limited Company | Network function virtualization |
US20190158364A1 (en) * | 2017-11-17 | 2019-05-23 | Huawei Technologies Co., Ltd. | Method and Apparatus for the Specification of a Network Slice Instance and Underlying Information Model |
Also Published As
Publication number | Publication date |
---|---|
EP3977679A1 (en) | 2022-04-06 |
WO2020244730A1 (en) | 2020-12-10 |
US20220255814A1 (en) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220014963A1 (en) | Reinforcement learning for multi-access traffic management | |
US11330470B2 (en) | Method and system for scheduling multi-access edge computing resources | |
CN114788353B (zh) | 执行切换过程 | |
US20220224776A1 (en) | Dynamic latency-responsive cache management | |
US10929189B2 (en) | Mobile edge compute dynamic acceleration assignment | |
US20230072769A1 (en) | Multi-radio access technology traffic management | |
Novo et al. | Capillary networks-bridging the cellular and IoT worlds | |
KR20220027818A (ko) | 분산 컴퓨팅을 위한 자동화된 리소스 관리 | |
US20170353397A1 (en) | Offloading Execution of an Application by a Network Connected Device | |
JP2024147619A (ja) | エッジコンピューティングベースのセルラネットワークシステムのための動的サービス発見及びオフロードフレームワーク | |
US11601847B2 (en) | Agent, server, core network node and methods therein for handling an event of a network service deployed in a cloud environment | |
Messaoudi et al. | On using edge computing for computation offloading in mobile network | |
CN116998203A (zh) | 云化的mac调度器 | |
WO2018201856A1 (en) | System and method for self organizing data center | |
US11601848B2 (en) | Method and apparatus for offloading data in wireless communication system | |
US20230403573A1 (en) | Managing a radio access network operation | |
Aldmour et al. | An approach for offloading in mobile cloud computing to optimize power consumption and processing time | |
US11743790B2 (en) | 5G and SDN powered virtualized personal device framework | |
CN113924760A (zh) | 通信网络中的网络节点和方法 | |
Al-Razgan et al. | [Retracted] A Computational Offloading Method for Edge Server Computing and Resource Allocation Management | |
US11675576B2 (en) | Methods and systems for application deployment and optimization | |
Tsourdinis et al. | DRL-based Service Migration for MEC Cloud-Native 5G and beyond Networks | |
WO2022261353A1 (en) | Uses of coded data at multi-access edge computing server | |
US20190108060A1 (en) | Mobile resource scheduler | |
Nethaji et al. | Differential Grey Wolf Load‐Balanced Stochastic Bellman Deep Reinforced Resource Allocation in Fog Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |