CN113485841A - 一种基于边缘计算的数据处理方法、设备及可读存储介质 - Google Patents
一种基于边缘计算的数据处理方法、设备及可读存储介质 Download PDFInfo
- Publication number
- CN113485841A CN113485841A CN202110855816.2A CN202110855816A CN113485841A CN 113485841 A CN113485841 A CN 113485841A CN 202110855816 A CN202110855816 A CN 202110855816A CN 113485841 A CN113485841 A CN 113485841A
- Authority
- CN
- China
- Prior art keywords
- node
- resource information
- edge computing
- edge
- computing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5066—Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/4401—Bootstrapping
- G06F9/4418—Suspend and resume; Hibernate and awake
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Security & Cryptography (AREA)
- Power Sources (AREA)
Abstract
本申请公开了一种基于边缘计算节点的数据处理方法、设备及可读存储介质,方法包括:获取边缘计算节点集群的总空闲算力资源信息;预测目标应用在目标时间段内针对边缘计算节点集群的总变化算力资源信息;若边缘计算节点集群满足节点休眠条件,则根据总空闲算力资源信息与总变化算力资源信息在边缘计算节点集群中确定待休眠边缘计算节点,在目标时间段内对待休眠边缘计算节点进行休眠处理;若边缘计算节点集群满足节点唤醒条件,则根据总空闲算力资源信息与总变化算力资源信息在边缘计算节点集群中确定待唤醒边缘计算节点,在目标时间段内对待唤醒边缘计算节点进行唤醒处理。采用本申请,可以在满足算力需求的同时,降低边缘计算节点的运行成本。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种基于边缘计算的数据处理方法、设备及可读存储介质。
背景技术
云游戏是指游戏在远程服务器上运行,并将渲染完毕后的游戏画面压缩编码后,通过网络以音视频流方式下发到终端的过程。云游戏不需要考虑终端配置,彻底解决了终端性能不足无法运行重度游戏的技术问题。不过云游戏对网络延时的要求非常高,为了给对象提供更加稳定的网络条件,一般都会通过大规模部署边缘计算节点的方式,让云游戏的服务器离对象更近。
然而,游戏对象的在线是有比较明显的潮汐现象的,为了给对象提供更好的体验,一般都是预设游戏对象的在线数(该在线数会设置的较高),再按照这个在线数为云游戏应用准备算力资源。然而,在非高峰时段时,游戏对象的实际在线数会远不到预设的在线数,那么边缘计算节点所准备的算力资源在非高峰时段就会产生空闲。
也就是说,在非高峰时段时,边缘计算节点会以较高的频率运行来提供较大的算力资源,边缘计算节点的算力资源不仅会被浪费掉,以较高频率全天运行的边缘计算节点还会增加功耗(即边缘计算节点功率的损耗),故障率大大提高,进而造成运行成本的提高。
发明内容
本申请实施例提供一种基于边缘计算的数据处理方法、设备以及可读存储介质,可以在满足算力需求的同时,降低边缘计算节点的运行成本。
本申请实施例一方面提供了一种基于边缘计算的数据处理方法,包括:
获取边缘计算节点集群的总空闲算力资源信息;总空闲算力资源信息为在运行目标应用时,目标应用未占用的边缘计算节点集群的算力资源信息;
预测目标应用在目标时间段内,针对边缘计算节点集群的总变化算力资源信息;
若边缘计算节点集群满足节点休眠条件,则根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待休眠边缘计算节点,在目标时间段内对待休眠边缘计算节点进行休眠处理;
若边缘计算节点集群满足节点唤醒条件,则根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待唤醒边缘计算节点,在目标时间段内对待唤醒边缘计算节点进行唤醒处理。
本申请实施例一方面提供了一种基于边缘计算的数据处理装置,包括:
空闲资源获取模块,用于获取边缘计算节点集群的总空闲算力资源信息;总空闲算力资源信息为在运行目标应用时,目标应用未占用的边缘计算节点集群的算力资源信息;
变化资源预测模块,用于预测目标应用在目标时间段内,针对边缘计算节点集群的总变化算力资源信息;
休眠处理模块,用于若边缘计算节点集群满足节点休眠条件,则根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待休眠边缘计算节点;
休眠处理模块,还用于在目标时间段内对待休眠边缘计算节点进行休眠处理;
唤醒处理模块,用于若边缘计算节点集群满足节点唤醒条件,则根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待唤醒边缘计算节点;
唤醒处理模块,还用于在目标时间段内对待唤醒边缘计算节点进行唤醒处理。
在一个实施例中,休眠处理模块包括:
休眠数量确定单元,用于若边缘计算节点集群满足节点休眠条件,则根据总空闲算力资源信息与总变化算力资源信息,确定边缘计算节点集群在目标时间段内的预测总空闲算力资源信息;
休眠数量确定单元,还用于根据预测总空闲算力资源信息与单位算力资源信息,确定节点休眠数量;单位算力资源信息为边缘计算节点集群中一个边缘计算节点对应的总算力资源信息;
休眠节点确定单元,用于根据节点休眠数量在边缘计算节点集群中确定待休眠边缘计算节点。
在一个实施例中,休眠节点确定单元包括:
已休眠节点获取子单元,用于获取边缘计算节点集群中的已休眠边缘计算节点;已休眠边缘计算节点为边缘计算节点集群中,当前处于休眠状态的边缘计算节点;
轮询表获取子单元,用于获取边缘计算节点集群对应的节点休眠轮询表;节点休眠轮询表中包括边缘计算节点集群中每个边缘计算节点的休眠轮询顺序;
休眠节点确定子单元,用于根据已休眠边缘计算节点在节点休眠排序表中的位置,以及节点休眠数量,从节点休眠轮询表中依次获取待休眠边缘计算节点;待休眠边缘计算节点在当前处于正常运行状态。
在一个实施例中,休眠节点确定单元包括:
正常节点获取子单元,用于获取边缘计算节点集群中的N个正常运行边缘计算节点;N个正常运行边缘计算节点在当前处于正常运行状态;N为正整数;
排序子单元,用于获取N个正常运行边缘计算节点中每个正常运行边缘计算节点分别对应的节点空闲算力资源信息;
排序子单元,还用于将N个节点空闲算力资源信息按照大小顺序进行排序,得到节点空闲算力资源信息序列;
休眠节点获取子单元,用于根据节点休眠数量在节点空闲算力资源信息序列中按序获取目标节点空闲算力资源信息,将目标节点空闲算力资源信息对应的正常运行边缘计算节点确定为待休眠计算节点。
在一个实施例中,休眠处理模块包括:
冻结处理单元,用于在目标时间段内,将待休眠边缘计算节点的运行状态进行冻结处理,得到冻结计算节点;
数量统计单元,用于统计冻结计算节点对应的节点在线业务对象的在线数量;
数据迁移单元,用于当在线数量小于在线阈值时,获取冻结计算节点的运行数据,将运行数据迁移至目标边缘计算节点;目标边缘计算节点在目标时间段内的运行状态为正常运行状态;
休眠处理单元,用于当成功将运行数据迁移至目标边缘计算节点时,将冻结计算节点进行休眠处理。
在一个实施例中,唤醒处理模块包括:
唤醒数量确定单元,用于若边缘计算节点集群满足节点唤醒条件,则根据总空闲算力资源信息与总变化算力资源信息,确定边缘计算节点集群在目标时间段内的预测超限算力资源信息;
唤醒数量确定单元,还用于根据预测超限算力资源信息与单位算力资源信息,确定节点唤醒数量;单位算力资源信息为边缘计算节点集群中一个边缘计算节点对应的总算力资源信息;
唤醒节点获取单元,用于获取边缘计算节点集群中的已休眠边缘计算节点;已休眠边缘计算节点为边缘计算节点集群中,当前处于休眠状态的边缘计算节点;
唤醒节点获取单元,还用于根据节点唤醒数量,在已休眠边缘计算节点中获取待唤醒边缘计算节点。
在一个实施例中,该基于边缘计算的数据处理装置还包括:
变化趋势确定模块,用于根据总变化算力资源信息确定边缘计算节点集群对应的算力资源变化趋势;
条件确定模块,用于若算力资源变化趋势为增长变化趋势,则根据总空闲算力资源信息与总变化算力资源信息,确定边缘计算节点集群所满足的节点处理条件;节点处理条件包括节点唤醒条件和节点休眠条件;
条件确定模块,还用于若算力资源变化趋势为缩减变化趋势,则确定边缘计算节点集群满足节点休眠条件。
在一个实施例中,条件确定模块包括:
资源比较单元,用于将总空闲算力资源信息与总变化算力资源信息进行比较;
条件确定单元,用于若总空闲算力资源信息大于总变化算力资源信息,则确定边缘计算节点集群满足节点休眠条件;
条件确定单元,还用于若总空闲算力资源信息小于总变化算力资源信息,则确定边缘计算节点集群满足节点唤醒条件。
在一个实施例中,边缘计算节点集群中包括至少两个边缘计算节点;至少两个边缘计算节点包括边缘计算节点Mi;i为正整数;
空闲资源获取模块包括:
占用资源确定单元,用于获取目标应用在边缘计算节点Mi中的Q个当前运行信息;一个当前运行信息包括一个在线业务对象所在的应用活动场景,以及在应用活动场景中的业务对象占用资源信息;
占用资源确定单元,还用于获取每个当前运行信息对应的业务对象占用资源信息,得到Q个业务对象占用资源信息;
占用资源确定单元,还用于将Q个业务对象占用资源信息的总和,确定为目标应用针对边缘计算节点Mi的已占用节点算力资源信息;
空闲资源确定单元,用于当确定出目标应用针对至少两个边缘计算节点中每个边缘计算节点的已占用节点算力资源信息时,根据至少两个边缘计算节点分别对应的已占用节点算力资源信息,确定边缘计算节点集群的总空闲算力资源信息。
在一个实施例中,空闲资源确定单元,还具体用于获取至少两个边缘计算节点中每个边缘计算节点分别对应的最大算力资源信息,得到至少两个最大算力资源信息;
空闲资源确定单元,还具体用于确定至少两个最大算力资源信息对应的总算力资源信息,确定至少两个已占用节点算力资源信息对应的总占用算力资源信息;
空闲资源确定单元,还具体用于将总算力资源信息与总占用算力资源信息之间的资源差值绝对值,确定为边缘计算节点集群的总空闲算力资源信息。
在一个实施例中,边缘计算节点集群中包括至少两个边缘计算节点;至少两个边缘计算节点包括边缘计算节点Mi;i为正整数;
变化资源预测模块包括:
对象预测单元,用于预测目标应用在目标时间段内针对边缘计算节点Mi的新增业务对象、下线业务对象以及场景切换业务对象;
变化资源确定单元,用于根据新增业务对象的新增数量、下线业务对象的下线数量以及场景切换业务对象的切换数量,确定目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息;
变化资源确定单元,还用于当确定出目标应用针对至少两个边缘计算节点中每个边缘计算节点的节点变化算力资源信息时,将至少两个边缘计算节点分别对应的节点变化算力资源信息的总和,确定为边缘计算节点集群的总变化算力资源信息。
在一个实施例中,目标应用包括一个或多个应用活动场景;
变化资源确定单元,还具体用于预测新增业务对象对应的初始登录场景;一个或多个应用活动场景包括初始登录场景;
变化资源确定单元,还具体用于将下线业务对象在发生下线行为时所处的应用活动场景,确定为下线应用活动场景;
变化资源确定单元,还具体用于将节点场景切换对象在进行场景切换前所处的应用活动场景,确定为初始应用活动场景,将场景切换对象在进行场景切换后所处的应用活动场景,确定为目标应用活动场景;
变化资源确定单元,还具体用于获取初始登录场景、下线应用活动场景、初始应用活动场景、目标应用活动场景分别对应的平均算力需求信息,根据初始登录场景、下线应用活动场景、初始应用活动场景、目标应用活动场景分别对应的平均算力需求信息,以及切换数量、下线数量、新增数量,确定目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息。
在一个实施例中,变化资源确定单元,还具体用于根据新增数量与初始登录场景对应的平均算力需求信息,确定节点新增业务对象对应的第一变化算力资源信息;
变化资源确定单元,还具体用于根据下线数量与在线应用活动场景对应的平均算力需求信息,确定节点下线业务对象对应的第二变化算力资源信息;
变化资源确定单元,还具体用于根据初始应用活动场景对应的平均算力需求信息、目标应用活动场景对应的平均算力需求信息以及切换数量,确定节点场景切换对象对应的第三变化算力资源信息;
变化资源确定单元,还具体用于根据第一变化算力资源信息、第二变化算力资源信息以及第三变化算力资源信息确定目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息。
本申请实施例一方面提供了一种计算机设备,包括:处理器和存储器;
存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行本申请实施例中的方法。
本申请实施例一方面提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序包括程序指令,程序指令当被处理器执行时,执行本申请实施例中的方法。
本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例中一方面提供的方法。
在本申请实施例中,在确定出边缘计算节点集群的当前的总空闲算力资源信息、以及在目标应用在目标时间段内针对边缘计算节点集群的总变化算力资源信息后,可以在边缘计算节点满足节点休眠条件时,基于总空闲算力资源信息与总变化算力资源信息,确定出待休眠边缘计算节点,并在目标时间段内对待休眠边缘计算节点进行休眠处理;同时,本申请可以在边缘计算节点满足节点唤醒条件时,基于总空闲算力资源信息与总变化算力资源信息,确定出待唤醒边缘计算节点,并在目标时间段内对待唤醒边缘计算节点进行唤醒处理。应当理解,总变化算力资源信息即是目标应用在目标时间段内对边缘计算节点集群的算力需求变化信息,根据该总变化算力资源信息在目标时间段内进行休眠或唤醒处理,即是根据实时的算力需求变化信息动态休眠或唤醒边缘计算节点集群中的部分边缘计算节点。由此不仅可以使得边缘计算节点集群所提供的算力资源可以满足算力需求变化信息,还可以使得边缘计算节点集群中的边缘计算节点根据实时算力需求进行休眠,减少节点的运行数量,即可以减少运行时间,从而可以减少边缘计算节点的多余的功耗损失,大大降低节点的故障发生率,继而可以大大减少运行成本。综上,本申请可以根据实时的总变化算力资源信息,动态对边缘计算节点进行休眠或唤醒处理,使得边缘计算节点可在满足算力需求的同时,降低运行成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种网络架构示意图;
图2a-图2b是本申请实施例提供的一种对边缘计算节点进行节点处理的场景示意图;
图3是本申请实施例提供的一种基于边缘计算的数据处理方法的流程示意图;
图4是本申请实施例提供的一种确定边缘计算节点集群的总变化算力资源信息的流程示意图;
图5是本申请实施例提供的一种确定边缘计算节点集群满足的节点处理条件的方法流程图;
图6是本申请实施例提供的一种进行节点处理的逻辑流程图;
图7是本申请实施例提供的一种迁移运行数据的流程示意图;
图8是本申请实施例提供的一种系统架构图;
图9是本申请实施例提供的一种基于边缘计算的数据处理装置的结构示意图;
图10是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请涉及到云计算、云游戏以及边缘计算等技术,以下将首先对云计算、云游戏以及边缘计算等相关概念进行阐述。
云计算(cloud computing)指IT基础设施的交付和使用模式,指通过网络以按需、易扩展的方式获得所需资源;广义云计算指服务的交付和使用模式,指通过网络以按需、易扩展的方式获得所需服务。这种服务可以是IT和软件、互联网相关,也可是其他服务。云计算是网格计算(Grid Computing)、分布式计算(DistributedComputing)、并行计算(Parallel Computing)、效用计算(Utility Computing)、网络存储(Network StorageTechnologies)、虚拟化(Virtualization)、负载均衡(Load Balance)等传统计算机和网络技术发展融合的产物。
随着互联网、实时数据流、连接设备多样化的发展,以及搜索服务、社会网络、移动商务和开放协作等需求的推动,云计算迅速发展起来。不同于以往的并行分布式计算,云计算的产生从理念上将推动整个互联网模式、企业管理模式发生革命性的变革。
云游戏(Cloud gaming)又可称为游戏点播(gaming on demand),是一种以云计算技术为基础的在线游戏技术。云游戏技术使图形处理与数据运算能力相对有限的轻端设备(thin client)能运行高品质游戏。在云游戏场景下,游戏并不在玩家游戏终端,而是在云端服务器中运行,并由云端服务器将游戏场景渲染为视频音频流,通过网络传输给玩家游戏终端。玩家游戏终端无需拥有强大的图形运算与数据处理能力,仅需拥有基本的流媒体播放能力与获取玩家输入指令并发送给云端服务器的能力即可。
边缘计算,指在靠近物或数据源头的一侧,采用网络、计算、存储、应用核心能力为一体的开放平台,就近提供最近端服务。其应用程序在边缘侧发起,产生更快的网络服务响应,满足在实时业务、应用智能、安全与隐私保护等方面的基本需求。
云游戏边缘计算节点,用于进行边缘计算的节点,一般由多台具备图形处理器(graphics processing unit,GPU)运算能力的服务器组成。其中的单台服务器可称之为计算节点。
算力,顾名思义就是设备的计算能力,小至手机、电脑,大到超级计算机,算力存在于各种硬件设备。算力资源就是设备执行计算任务时所需要占用的硬件或者网络资源,通常可以包括中央处理器(central processing unit,CPU)算力资源、GPU算力资源、内存资源、网络带宽资源、磁盘资源。
本申请实施例提供的方案涉及云技术领域的云计算和云游戏技术,具体过程通过如下实施例进行说明。
请参见图1,图1是本申请实施例提供的一种网络架构示意图。如图1所示,该网络架构可以包括管理服务器100和边缘节点11、边缘节点12、…、边缘节点1n,其中,边缘节点11可以包括计算服务器11a、计算服务器11b等多个计算服务器,边缘节点12可以包括计算服务器12a、计算服务器12b等多个计算服务器。如图1所示,边缘节点11中的计算服务器11a、计算服务器11b等计算服务器之间可以相互进行通信,边缘节点12中的计算服务器12a、计算服务器12b等计算服务器之间可以相互进行通信,边缘节点11中的任一计算服务器、边缘节点12中的任一计算服务器、…、边缘节点1n中的任一计算服务器可以分别与上述管理服务器100进行网络连接,以便于每个计算服务器可以通过网络连接与管理服务器100进行数据交互,以便于每个计算服务器可以接收到来自于上述管理服务器100的管理数据。可以理解的是,边缘节点中的计算服务器通常部署在同一地区,而不同边缘节点通常部署在不同地区。
如图1所示,上述边缘节点中的计算服务器均可以对应终端设备集群,终端设备集群中的每个终端设备上均可以集成安装有目标应用,当该目标应用运行于各终端设备中时,可以与管理服务器100为之分配的计算服务器之间进行数据交互。其中,该目标应用可以包括游戏应用、视频编辑应用、社交应用、即时通信应用、直播应用、短视频应用、视频应用、音乐应用、购物应用、小说应用、支付应用、浏览器等具有显示文字、图像、音频以及视频等数据信息功能的应用中的一个或多个应用。计算服务器为终端设备中运行的目标应用提供对应的功能服务,但同时会消耗对应的算力资源,一个计算服务器的算力资源可以同时对应不同的终端设备,当接入计算服务器的终端设备运行有目标应用(例如,云游戏应用)时,该目标应用会占用该计算服务器的算力资源。
从上述可知,每个边缘节点(如边缘节点11)中可以包括多个计算服务器(如边缘节点11中可以包括计算服务器11a、计算服务器11b等),每个计算服务器也可称之为边缘计算节点,本申请可以将包括多个计算服务器的边缘节点(如边缘节点11),称为边缘计算节点集群。以下将计算服务器(如计算服务器11a)称为边缘计算节点、将计算服务器所在的边缘节点(如边缘节点11)称为边缘计算节点集群。
一个边缘计算节点集群可以为一个目标应用提供功能服务(提供算力资源),为了使用目标应用的对象能够顺利运行目标应用,通常边缘计算节点集群会按照目标应用的最高在线数(登录目标应用的对象的数量),来为目标应用准备算力资源(边缘计算节点集群中的每个边缘计算节点会按照最高在线数来准备算力资源)。例如,以边缘计算节点集群为边缘节点11为例,针对该边缘节点11中的计算服务器11a,预设的目标应用的最高在线数为500,那么可根据该最高在线数500来设置计算服务器11a的运行频率(即计算服务器11a中的运算模块(如CPU、GPU等等)在运行时的频率),并根据该运行频率准备算力资源。其中,该运行频率可以是指计算服务器11a中的运算模块(如CPU、GPU等等)在运行时的频率;当目标应用的预设的最高在线数为500时,那么该计算服务器11a为目标应用所设置的运行频率为能够为500个在线对象提供功能服务的频率,所准备的算力资源即该运行频率对应的算力资源(该运行频率对应的算力资源可以称为计算服务器11a的最大算力资源信息)。同理,边缘节点11中的其他每个计算服务器(边缘计算节点),也可以按照计算服务器11a准备算力资源的方式,来根据各自的对象的最高在线数来准备算力资源。由此,整个边缘节点11会具备一个总的对象的最高在线数,也会具备一个为目标应用所准备的总的算力资源(即,边缘计算节点集群中所有的边缘计算节点的最大算力资源信息的总和,可称为总算力资源信息)。
然而,倘若在一个时间段内,目标应用的实际在线对象数远少于预设的最高在线数,那么边缘计算节点集群所准备的总算力资源信息实际上是过大的,实际上所需求的算力资源可以较小,那么此时,边缘计算节点集群中的各个边缘计算节点仍然会以过大的运行频率持续运行,这会造成各个边缘计算节点的算力资源的浪费,同时也会造成边缘计算节点的过大的功耗,持续运行也会大大损伤边缘计算节点,造成故障,影响边缘计算节点的寿命,从而造成运行成本的增加;同理,倘若在一个时间段内,目标应用的实际在线对象数远高于预设的最高在线数,那么此时边缘计算节点集群所准备的总算力资源信息实际上是过小的,此时边缘计算节点集群所能够提供的功能服务,可能并不够支撑目标应用运行,无法满足目标应用对算力资源的需求。
为了使得边缘计算节点集群可以更好地在满足目标应用对于算力资源的需求的同时,降低边缘计算节点集群的运行成本,管理服务器100会与每个边缘计算节点进行数据交互,获取到每个边缘计算节点的当前运行频率,以获取到该当前运行频率对应的算力资源信息(即最大算力资源信息);管理服务器100也可获取到每个边缘计算节点的已占用节点算力资源信息(即目标应用在运行时,所占用的每个边缘计算节点的算力资源,如在运行目标应用时,目标应用所占用的计算服务器11a的CPU算力资源),那么管理服务器100通过每个边缘计算节点的最大算力资源信息与已占用节点算力资源信息,就可得到每个边缘计算节点的当前空闲算力资源信息(即目标应用在当前运行时未占用的每个边缘计算节点的算力资源,如,计算服务器11a中在为目标应用提供功能服务时,未使用到的CPU算力资源);在得到每个边缘计算节点的当前空闲算力资源信息后,也可以确定出边缘计算节点所在的边缘计算节点集群在当前的总空闲算力资源信息(即,边缘计算节点集群中所有的边缘计算节点的当前空闲算力资源信息的总和)。其中,当前可以是指在统计各个边缘计算节点的已占用节点算力资源信息的时刻。
应当理解,在得到每个边缘计算节点的已占用节点算力资源信息后,也可得到边缘计算节点集群的总占用算力资源信息(即,边缘计算节点集群中所有边缘计算节点的已占用节点算力资源信息的总和)。进一步地,管理服务器100可以预测目标应用在目标时间段内,针对边缘计算节点集群的总变化算力资源信息(即,在目标时间段内,与总占用算力资源信息相比,目标应用针对边缘计算节点集群预计会新增或释放的算力资源,如预计目标应用在目标时间段内运行时,目标应用可能会新增占用的边缘计算节点集群的CPU算力资源);随后,管理服务器100可以根据该预测的总变化算力资源信息,确定该边缘计算节点集群对应的算力资源变化趋势。其中,该算力资源变化趋势可以是指目标应用在目标时间段内所需求的算力资源是增长了、缩减了还是与总占用算力资源信息保持不变,则该算力资源变化趋势可以包括增长变化趋势(对应于所需求的算力资源增长)、缩减变化趋势(对应于所需求的算力资源缩减)以及平稳变化趋势(对应于所需求的算力资源与总占用算力资源信息保持不变)。可将该总变化算力资源信息与数值0相比,若该总变化算力资源信息大于0(即总变化算力资源信息为正值),则可确定在目标时间段内,目标应用预计会占用的边缘计算节点集群的算力资源会增多,则该边缘计算节点集群对应的算力资源变化趋势即可为增长变化趋势;而若总变化算力资源信息小于0(即总变化算力资源信息为负值),则可确定在目标时间段内,目标应用预计会占用的边缘计算节点集群的算力资源会减少,则该边缘计算节点集群对应的算力资源变化趋势即可为缩减变化趋势;而若总变化算力资源信息等于0,则可确定在目标时间段内,目标应用预计会占用的边缘计算节点集群的算力资源不会产生变化,则该边缘计算节点集群对应的算力资源变化趋势即可为平稳变化趋势。
当该边缘计算节点集群的算力资源变化趋势为增长变化趋势时,可以根据总空闲算力资源信息与总变化算力资源信息,确定出边缘计算节点集群所满足的节点处理条件为节点唤醒条件(如,边缘计算节点集群的当前的总空闲算力资源信息无法满足总变化算力资源信息,则此时边缘计算节点集群满足节点唤醒条件)还是节点休眠条件(如,边缘计算节点集群的当前的总空闲算力资源信息足够多,在满足总变化算力资源信息的同时还有剩余的空闲算力资源信息,则此时边缘计算节点集群满足节点休眠条件),当该边缘计算节点集群的节点处理条件为节点休眠条件时,管理服务器100就可以在边缘计算节点集群中确定待休眠边缘计算节点(即在目标时间段内不会再运行的边缘计算节点,可将这些边缘计算节点在目标时间段内从正常运行状态设置为休眠状态),并在目标时间段内对待休眠边缘计算节点进行休眠处理;而当边缘计算节点集群的节点处理条件为节点唤醒条件时,管理服务器100就可以在边缘计算节点集群中确定待唤醒边缘计算节点(即在目标时间段内,需要从休眠状态转换为正常运行状态的边缘计算节点),并在目标时间段内对待唤醒边缘计算节点进行唤醒处理。
当该边缘计算节点集群的算力资源变化趋势为缩减变化趋势时,可直接确定边缘计算节点集群满足节点休眠条件,随后可根据总空闲算力资源信息与总变化算力资源信息,确定出待休眠边缘计算节点,并在目标时间段内对待休眠边缘计算节点进行休眠处理。其中,对于根据总空闲算力资源信息与总变化算力资源信息,确定出边缘计算节点集群所满足的节点处理条件为节点唤醒条件还是节点休眠条件的具体实现方式,可以参见后续图3所对应实施例中的描述。
应当理解,目标时间段的总变化算力资源信息即是目标应用在目标时间段内的算力需求变化信息,当该目标应用在目标时间段内的算力需求有所增加时,可以唤醒部分处于休眠状态的边缘计算节点,使之可以为目标应用提供功能服务,从而可以满足目标应用新增的算力需求;当该目标应用在目标时间段内的算力需求有所减少时,可以休眠部分处于正常运行状态的边缘计算节点,使之可以“休息”,在目标时间段内不再继续运行,减少运行时间,提高寿命。也就是说,本申请可以根据实时的算力需求,动态休眠或唤醒边缘计算节点,在满足算力需求的同时,减少运行成本。
可以理解的是,上述处理过程可以由管理服务器单独执行,也可以由计算服务器单独执行,也可以由管理服务器和计算服务器共同执行,具体实现可以根据实际需求来调整,这里不作限制。
可以理解的是,本申请实施例提供的方法可以由计算机设备执行,计算机设备包括但不限于终端设备、计算服务器或管理服务器。其中,管理服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
可以理解的是,上述设备(如上述管理服务器100、计算服务器11a、计算服务器11b、计算服务器12a、…、计算服务器12b等)可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成的点对点(P2P,Peer To Peer)网络,P2P协议是一个运行在传输控制协议(TCP,Transmission Control Protocol)协议之上的应用层协议。在分布式系统中,任意形式的计算机设备,比如服务器、终端设备等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
其中,上述终端设备集群中的终端设备可以包括手机、平板电脑、笔记本电脑、掌上电脑、智能音响、移动互联网设备(MID,mobile internet device)、POS(Point OfSales,销售点)机、可穿戴设备(例如智能手表、智能手环等)、车载设备等。
为便于理解,请参见图2a-图2b,图2a-图2b是本申请实施例提供的一种对边缘计算节点进行节点处理的场景示意图。其中,如图2a-图2b所示的场景,是以上述管理服务器100在目标时间段内,对边缘节点11(即边缘计算节点集群)中的计算服务器11a、计算服务器11b、计算服务器11c以及计算服务器11d进行节点处理为例进行说明。以下将边缘节点11称为边缘计算节点集群11,将计算服务器11a、计算服务器11b、计算服务器11c以及计算服务器11d称为边缘计算节点。
如图2a所示,业务对象A1、业务对象A2、业务对象A3、业务对象A4、业务对象A5、业务对象A6、业务对象A7、业务对象A8、业务对象A9、业务对象A10、业务对象A11、业务对象A12均为在线业务对象;其中,业务对象可以是指使用终端设备运行目标应用的业务用户在目标应用中的绑定账号,业务用户可以使用绑定账号登录目标应用,而目标应用也可以通过绑定账号判断业务用户是否登录。当业务用户使用其绑定账号登录目标应用后,业务用户对应的业务对象(即绑定账号)即为在线状态,此时这些业务对象可称为在线业务对象。也就是说,上述业务对象A1、业务对象A2、…、业务对象A12在当前均为在线状态。
如图2a所示的终端设备10a为业务对象A1对应的终端、终端设备10b为业务对象A2对应的终端、终端设备10c为业务对象A3对应的终端、终端设备10d为业务对象A4对应的终端、终端设备10e为业务对象A5对应的终端、终端设备10f为业务对象A6对应的终端、终端设备10g为业务对象A7对应的终端、终端设备10h为业务对象A8对应的终端、终端设备10i为业务对象A9对应的终端、终端设备10j为业务对象A10对应的终端、终端设备10k为业务对象A11对应的终端、终端设备10m为业务对象A12对应的终端。此时,边缘计算节点11a为终端设备10a、终端设备10b、终端设备10c提供功能服务(提供算力资源),边缘计算节点11b为终端设备10d、终端设备10e、终端设备10f提供功能服务(提供算力资源),边缘计算节点11c为终端设备10g、终端设备10h、终端设备10i提供功能服务(提供算力资源),边缘计算节点11d为终端设备10j、终端设备10k、终端设备10m提供功能服务(提供算力资源)。
管理服务器100可以获取到边缘计算节点11a、边缘计算节点11b、边缘计算节点11c以及边缘计算节点11d分别在当前的空闲算力资源信息(即目标应用在当前运行时,未占用的各个边缘计算节点的算力资源)。以下将以管理服务器100a获取边缘计算节点11a的空闲算力资源信息为例,对其具体过程进行阐述。
管理服务器100可以获取到在终端设备10a、终端设备10b、终端设备10c上运行目标应用时,所占用的边缘计算节点11a的算力资源(以下将称之为已占用节点算力资源信息),其中,该已占用节点算力资源信息可以是指边缘计算节点11a为目标应用提供功能服务时,所占用的算力资源的量化指标信息。其中,量化指标信息可以包括中央处理器算力信息(CPU)、图形处理器算力信息(GPU)、内存使用信息、网络带宽使用信息、磁盘读写能力信息等多个指标信息中的一个或多个指标信息。这里将以量化指标信息包括CPU算力与GPU算力为例,已占用算力资源信息即是统计在运行目标应用时,所占用的边缘计算节点11a的CPU算力资源与GPU算力资源。
随后,管理服务器100可以获取到边缘计算节点11a在当前的运行频率,从而可以确定边缘计算节点11a当前的最大算力资源信息。根据边缘计算节点11a的最大算力资源信息与已占用算力资源信息,即可确定出边缘计算节点的空闲算力资源信息(如,使用最大算力资源信息减去已占用算力资源信息)。同理,管理服务器100也可以确定出边缘计算节点11b、边缘计算节点11c以及边缘计算节点11d分别对应的空闲算力资源信息。随后,管理服务器100可根据边缘计算节点11a、边缘计算节点11b、边缘计算节点11c以及边缘计算节点11d分别对应的空闲算力资源信息,确定出边缘计算节点集群11所对应的总空闲算力资源信息(如,将边缘计算节点11a、边缘计算节点11b、边缘计算节点11c以及边缘计算节点11d分别对应的空闲算力资源信息进行相加)。
进一步地,管理服务器100可以预测目标时间段内,目标应用针对边缘计算节点集群11的总变化算力资源信息,该总变化算力资源信息即目标应用在目标时间段内预计会增加(或减少,或不变)占用的算力资源。也就是说,该总变化算力资源信息可用于表征相比于边缘计算节点集群11的当前的总占用算力资源信息,在目标时间段内,目标应用预计会占用的算力资源是会增加、减少、还是保持不变。对于管理服务器100确定边缘计算节点集群11的总变化算力资源信息的一种具体方法可为:管理服务器100首先确定出边缘计算节点集群11中每个边缘计算节点(包括边缘计算节点11a、边缘计算节点11b、边缘计算节点11c以及边缘计算节点11d)的节点变化算力资源信息(即目标应用在目标时间段内,针对某个边缘计算节点预计会增加(或减少,或不变)占用的算力资源,即对某个边缘计算节点的算力需求变化信息),随后,可确定所有边缘计算节点的节点变化算力资源的总和,该总和即可作为边缘计算节点集群11的总变化算力资源信息。对于确定每个边缘计算节点的节点变化算力资源信息的具体实现方式,可以参见后续图3所对应实施例中的描述。
如图2b所示,管理服务器100所确定的边缘计算节点11a的节点变化算力资源信息为节点变化算力资源信息a、边缘计算节点11b的节点变化算力资源信息为节点变化算力资源信息b、边缘计算节点11c的节点变化算力资源信息为节点变化算力资源信息c、边缘计算节点11d的节点变化算力资源信息为节点变化算力资源信息d。随后,管理服务器100可以将节点变化算力资源信息a、节点变化算力资源信息b、节点变化算力资源信息c以及节点变化算力资源信息d进行相加处理,从而可得到边缘计算节点集群11所对应的总变化算力资源信息。
进一步地,根据该总变化算力资源信息,可以确定边缘计算节点集群11的算力资源变化趋势。其中,该算力资源变化趋势即是与当前的总占用算力资源信息相比,针对边缘计算节点集群11,目标应用在目标时间段内所需求的总算力资源是会新增、还是会释放(减少)、还是保持总占用算力资源信息不变。当该总变化算力资源信息大于数值0(即总变化算力资源信息为正值)时,可以说明目标应用在目标时间段内所需求的算力资源会新增,该算力资源变化趋势为增长变化趋势;当该总变化算力资源信息小于数值0(即总变化算力资源信息为负值)时,可以说明目标应用在目标时间段内所需求的算力资源会减少,该算力资源变化趋势为缩减变化趋势;当该总变化算力资源信息等于数值0时,可以说明目标应用在目标时间段内所需求的算力资源并没有发生变化,该算力资源变化趋势为平稳变化趋势。
应当理解,根据该算力资源变化趋势、总变化算力资源信息以及总空闲算力资源信息,可以对边缘计算节点集群11中的边缘计算节点进行节点处理(如节点休眠处理、节点唤醒处理)。例如,当算力资源变化趋势为增长变化趋势时,表明目标时间段内目标应用所需的算力资源会新增,那么此时可以将边缘计算节点集群11的总空闲算力资源信息与总变化算力资源信息进行比较,由此可以判断总空闲算力资源信息是否可以满足目标应用所需求的新增的算力资源。若该总空闲算力资源大于该总变化算力资源信息,那么此时该总空闲算力资源是可以满足目标应用所需求的新增的算力资源的,且在满足了总变化算力资源信息后,仍有多余的空闲算力资源信息,则此时可以对边缘计算节点集群11中的部分边缘计算节点进行休眠处理(即关闭这些边缘计算节点的功能,这些边缘计算节点不会在目标时间段内运行),由此可以减少边缘计算节点的运行时间,提高寿命,节约成本;而若总空闲算力资源大于该总变化算力资源信息,则此时总空闲算力资源信息无法满足目标应用的需求,那么此时可以唤醒边缘计算节点集群11中,处于休眠状态的部分边缘计算节点,使之正常运行为目标应用提供功能服务,满足目标应用的需求。需要说明的是,若此时边缘计算节点集群11中并不存在处于休眠状态的边缘计算节点,那么可以上线新的计算服务器,这些新的计算服务器可以加入边缘计算节点集群11中,为目标应用提供功能服务。而若该总空闲算力资源等于该总变化算力资源信息,则无需对边缘计算节点集群11进行休眠或唤醒处理。
以上仅是以算力资源变化趋势为增长变化趋势为例,对边缘计算节点集群11进行节点处理的方式进行了说明,算力资源变化趋势还可包括缩减变化趋势、平稳变化趋势,对于根据具体的算力资源变化趋势、总变化算力资源信息以及总空闲算力资源信息,对边缘计算节点集群11进行节点处理的具体方式,可以参见后续图3所对应实施例中的描述。
进一步地,请参见图3,图3是本申请实施例提供的一种基于边缘计算的数据处理方法的流程示意图。其中,该方法可由上述图1所对应实施例中的计算机设备(如管理服务器100)执行,即可以由图1中的管理服务器100执行。
如图3所示,该基于边缘计算的数据处理方法可以包括如下步骤S101-步骤S104:
步骤S101,获取边缘计算节点集群的总空闲算力资源信息;总空闲算力资源信息为在运行目标应用时,目标应用未占用的边缘计算节点集群的算力资源信息。
本申请中,边缘计算节点可以是指能够提供计算或者应用服务的计算机设备,比如服务器(例如,上述图1所示的计算服务器11a、计算服务器11b、计算服务器12a或者计算服务器12b)。多个边缘计算节点可组成一个边缘计算节点集群,边缘计算节点集群可如上述图1所示的边缘节点11、边缘节点12等。目标应用可以是指边缘计算节点需要为其完成相关计算任务的应用,比如,目标应用可以为云游戏应用,基于云计算技术,云游戏通常在远程服务器上运行,终端设备只需要接收远程服务器发送的音视频流,然后解码播放运行即可,此时,远程服务器就可为边缘计算节点。
应当理解,目标应用在终端设备上运行时,边缘计算节点集群中的每个边缘计算节点可为其提供相应的计算服务,而当边缘计算节点为其提供相应的计算服务时,会目标应用会占用边缘计算节点的算力资源。其中,算力可以是指边缘计算节点的计算能力,在本申请中,对边缘计算节点的算力的衡量通常可以采用CPU算力与GPU算力。其中,CPU算力一般使用每秒运算次数(Operations per second,OPS)来衡量;而GPU算力根据计算类型可以有多种衡量指标,一般从运算能力(根据运算的类型,通过每秒所执行的浮点运算次数(Floating-point Operations Per Second,FLOPS)、OPS、半精度峰值运算能力和双精度峰值运算能力来进行衡量)和数据读取吞吐量两个指标来进行衡量。对于算力资源,除CPU算力资源与CPU算力资源以外,当然还可以包括其他算力资源,例如内存资源、网络带宽资源、磁盘资源等等。本申请对于算力资源包括的内容不进行限制。以下将以算力资源包括CPU算力资源与GPU算力资源为例进行说明。
具体的,目标应用可以包括一个或多个应用活动场景,应用活动场景可以是指目标应用运行在终端设备时,在终端设备显示的画面所属的场景类型,一个应用活动场景可以为目标应用提供相应的应用功能。例如,目标应用为社交应用时,应用活动场景可以包括语音通话场景、视频通话场景、文字聊天场景,当业务用户通过社交应用的绑定账号(可称之为业务对象)登录社交应用后,在语音通话场景中,社交应用提供不同业务对象之间的语音通信功能(即业务用户之间可进行语音通信);在视频通话场景中,社交应用提供不同业务对象之间的视频通信功能(即业务用户可进行视频通信);在文字聊天场景中,社交应用提供不同业务对象之间的文字通信功能(即业务用户可进行文字通信)。例如,目标应用为云游戏应用时,应用活动场景可包括游戏主页大厅场景(即业务用户在登录或打开云游戏应用时,云游戏应用通常会呈现一个默认的画面,可以用于进行游戏角色呈现、角色服装更换、竞技模式选择等,该默认的呈现画面通常称为游戏主页大厅)、单人竞技场景(即云游戏应用中可进行单人作战的模式,该单人竞技场景用于进行单人跳伞、单人闯关等)、多人竞技场景(即云游戏应用中可进行多人作战的模式,该多人竞技场景可以用于进行多人组队打怪提升游戏等级、多人组队闯关等),在游戏主页大厅场景中,云游戏应用为业务用于提供游戏背景介绍、游戏角色介绍、资料显示、竞技模式选择等功能;在单人竞技场景中,云游戏应用为业务对象提供单人作战竞技功能;在多人竞技场景中,云游戏应用为业务对象提供多人作战竞技功能、多人通信功能等。
可以理解的是,当业务对象在目标应用中所处的应用活动场景不同时,通常所需的算力资源也不同,例如,当目标应用为云游戏应用时,应用活动场景包括游戏主页大厅场景、单人竞技场景、多人竞技场景,通常在游戏主页大厅场景中,需要向业务对象呈现游戏背景、业务对象的游戏角色介绍、游戏竞技模式选择等简单的画面及控件,则游戏主页大厅场景所需求的算力资源也会较小;而在单人竞技场景中,业务对象可以进行单人的竞技游戏(例如,单人操作游戏角色以增长游戏经验或获取游戏金币等),与游戏主页大厅场景相比,在单人竞技场景中业务对象的操作指令会更多,则对应的计算也会更多,那么在单人竞技场景中需求的算力资源也会更多;而在多人竞技场景中,业务对象可以进行大量的游戏操作(如滑动方向轮盘、释放游戏角色的技能、点击撤退控件),除此之外,业务对象之间还可以进行语音通信交流、文字通信交流等,也就是说,多人竞技场景需要满足业务对象的游戏操作指令以外,还需要为业务对象提供通信交流的计算服务,则相比于单人竞技场景,多人竞技场景需求的算力资源会更多。
因此,本申请可获取到每个边缘计算节点中,当前的在线业务对象(当业务用户使用其绑定账号登录目标应用后,业务用户对应的业务对象(即绑定账号)即为在线状态,此时这些业务对象可称为在线业务对象)在目标应用中所处的应用活动场景,并获取到每个在线业务对象在所处的应用活动场景中所占用的算力资源,由此可统计得到所有的在线业务对象所占用的边缘计算节点的算力资源,一个边缘计算节点的所有的在线业务对象所占用的边缘计算节点的算力资源,可称之为一个边缘计算节点的已占用节点算力资源信息。当确定出边缘计算节点集群中的每个边缘计算节点的已占用节点算力资源信息时,可确定出边缘计算节点集群的总占用算力资源信息,进而可以确定出边缘计算节点集群的总空闲算力资源信息。其中,该总空闲算力资源信息即是在运行目标应用时,目标应用未占用的边缘计算节点集群的算力资源。
以边缘计算节点集群中包括至少两个边缘计算节点、且至少两个边缘计算节点包括边缘计算节点Mi(i为正整数)为例,对确定边缘计算节点集群的总空闲算力资源信息的具体方法可为:可获取目标应用在边缘计算节点Mi中的Q(Q为正整数)个当前运行信息;其中,一个当前运行信息可包括一个在线业务对象所在的应用活动场景,以及在应用活动场景中的业务对象占用资源信息;随后,可获取每个当前运行信息对应的业务对象占用资源信息,由此可得到Q个业务对象占用资源信息;随后,可将Q个业务对象占用资源信息的总和,确定为目标应用针对边缘计算节点Mi的已占用节点算力资源信息;当确定出目标应用针对至少两个边缘计算节点中每个边缘计算节点的已占用节点算力资源信息时,根据至少两个边缘计算节点分别对应的已占用节点算力资源信息,即可确定边缘计算节点集群的总空闲算力资源信息。
其中,根据至少两个边缘计算节点分别对应的已占用节点算力资源信息,确定边缘计算节点集群的总空闲算力资源信息的具体方法可为:可获取至少两个边缘计算节点中每个边缘计算节点分别对应的最大算力资源信息,得到至少两个最大算力资源信息;随后,可确定至少两个最大算力资源信息对应的总算力资源信息,确定至少两个已占用节点算力资源信息对应的总占用算力资源信息;可将总算力资源与总占用算力资源信息之间的资源差值绝对值,确定为边缘计算节点集群的总空闲算力资源信息。
应当理解,上述业务对象占用资源信息即可理解为一个在线业务对象处于某个应用活动场景时,所占用的某个边缘计算节点的算力资源;每个业务用户在通过绑定账号(以下将称为业务对象)登录目标应用后,其业务对象在目标应用中的登录状态即为在线状态、此时业务对象也可称为在线业务对象。计算机设备会实时获取到每个在线业务对象在目标应用中的应用活动场景,并统计该在线业务对象在处于某个应用活动场景时,所占用的算力资源,一个在线业务对象在当前所处的应用活动场景以及处于应用活动场景时所占用的算力资源,可组成一个当前运行信息。因为一个当前运行信息包括有一个在线业务对象所处的应用活动场景、以及处于该应用活动场景时,所占用的算力资源;那么Q个当前运行信息就可以包括Q个在线业务对象分别所处的应用活动场景、以及Q个在线业务对象处于对应的应用活动场景时,所分别占用的算力资源,将这Q个业务对象占用资源信息(即Q个在线业务对象处于对应的应用活动场景时,所分别占用的算力资源)进行相加求和,即可得到Q个在线业务对象所占用的某个边缘计算节点的总的算力资源(即已占用节点算力资源信息)。当确定出每个边缘计算节点的已占用节点算力资源信息时,可将这些已占用节点算力资源信息进行相加处理,由此可得到边缘计算节点集群对应的总占用算力资源信息(即至少两个已占用节点算力资源信息对应的总占用算力资源信息)。
进一步地,可获取每个边缘计算节点对应的当前的最大算力资源信息,将边缘计算节点集群中的所有的边缘计算节点的最大算力资源信息进行相加,即可得到边缘计算节点集群对应的总算力资源信息(即至少两个最大算力资源信息对应的总算力资源信息)。随后,将边缘计算节点集群的总算力资源信息减去边缘计算节点集群的总占用算力资源信息,即可得到边缘计算节点集群对应的总空闲算力资源信息。
应当理解,算力资源可包括CPU算力资源与GPU算力资源,那么在统计每个边缘计算节点(如边缘计算节点Mi)的已占用节点算力资源信息时,可统计Q个在线业务对象所占用的边缘计算节点Mi的CPU算力资源以及GPU算力资源,所占用的CPU算力资源与GPU算力资源均可称之为边缘计算节点Mi的已占用节点算力资源信息。
步骤S102,预测目标应用在目标时间段内,针对边缘计算节点集群的总变化算力资源信息。
本申请中,目标应用包括有一个或多个应用活动场景,而业务对象在不同的应用活动场景中所需的算力资源也会不同。那么针对一个边缘计算节点而言,业务对象的新增、下线、场景切换,也会造成需求的算力资源发生变化。则本申请可以预测出边缘计算节点集群中每个边缘计算节点的新增业务对象(即在目标时间段内才登录或打开目标应用的业务用户所对应的绑定账号,如以边缘计算节点Mi为例,新增业务对象不属于上述Q个当前的在线业务对象)、下线业务对象(即在当前的在线业务对象中,在目标时间段内退出云游戏应用的业务用户所对应的绑定账号,如以边缘计算节点Mi为例,下线业务对象即上述Q个当前的在线业务对象中,在目标时间段内预计会退出目标应用的业务用户对应的绑定账号)以及场景切换业务对象(即,边缘计算节点的当前的在线业务对象中,在目标时间段内会切换应用活动场景的业务对象,这些场景切换业务对象在当前所处的应用活动场景与在目标时间段内所处的应用活动场景不同(例如,针对云游戏应用,某个在线业务对象在当前时刻下处于单人竞技场景,在目标时间段内会退出单人竞技场景,并进入至游戏主页大厅场景,该在线业务对象即可称之为场景切换对象)),根据该新增业务对象、下线业务对象以及场景切换业务对象,可以确定出每个边缘计算节点的节点变化算力资源信息(即,针对某个边缘计算节点,在业务对象新增、下线或进行场景切换后,目标应用所需的算力资源是新增了、减少了还是不会发生变化)。在确定出边缘计算节点集群中的每个边缘计算节点的节点变化算力资源信息后,将边缘计算节点集群中的所有边缘计算节点的节点变化算力资源信息进行相加,即可确定出边缘计算节点集群的总变化算力资源信息。
对于确定边缘计算节点集群的总变化算力资源信息的具体实现方式,可以参见后续图4所对应实施例中的描述。
步骤S103,若边缘计算节点集群满足节点休眠条件,则根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待休眠边缘计算节点,在目标时间段内对待休眠边缘计算节点进行休眠处理。
本申请中,在确定出边缘计算节点集群的总空闲算力资源信息、总变化算力资源信息后,可根据总变化算力资源信息,确定出边缘计算节点集群对应的算力资源变化趋势;该算力资源变化趋势包括增长变化趋势、缩减变化趋势以及平稳变化趋势。当该总变化算力资源信息大于数值0时,该算力资源变化趋势即可为增长变化趋势;当该总变化算力资源信息小于数值0时,该算力资源变化趋势即可为缩减变化趋势;当该总变化算力资源信息等于数值0时,该算力资源变化趋势即可为平稳变化趋势。
随后,根据总空闲算力资源信息、总变化算力资源信息以及该算力资源变化趋势,可确定出边缘计算节点集群对应的节点处理条件,其中,该节点处理条件可以包括节点唤醒条件与节点休眠条件。对于确定边缘计算节点的节点处理条件的具体实现方式,可以参见后续图5所对应实施例中的描述。
进一步地,在边缘计算节点集群满足节点休眠条件时,可在目标时间段内对边缘计算节点集群进行休眠处理,具体方法可为:可以根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待休眠边缘计算节点;随后,可将待休眠边缘计算节点在目标时间段内进行休眠处理。其中,对于根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待休眠边缘计算节点的具体方法可为:若边缘计算节点集群满足节点休眠条件,则可根据总空闲算力资源信息与总变化算力资源信息,确定边缘计算节点集群在目标时间段内的预测总空闲算力资源信息;根据预测总空闲算力资源信息与单位算力资源信息,可确定节点休眠数量;其中,单位算力资源信息为边缘计算节点集群中一个边缘计算节点对应的总算力资源信息;根据节点休眠数量即可在边缘计算节点集群中确定待休眠边缘计算节点。
应当理解,单位算力资源信息可以是指边缘计算节点集群中一个边缘计算节点对应的总算力资源信息。在一种可行的方式中,一个边缘计算节点对应的总算力资源信息可以是边缘计算节点集群中,所有边缘计算节点(所有当前处于正常运行状态的边缘计算节点)的最大算力资源信息的总和的平均值,即平均最大算力资源信息;在另一种可行的方式中,一个边缘计算节点对应的总算力资源信息可以为人为规定值(如,根据人工经验所确定的一个值)。
若边缘计算节点集群满足节点休眠条件,则可说明该总变化算力资源信息为负值,目标应用在时间段内所需求的算力资源有所减少,边缘计算节点集群在目标时间段内可以释放部分算力资源,在目标时间段内也可以将边缘计算节点集群中的部分边缘计算节点进行休眠处理。通过将总空闲算力资源信息减去总变化算力资源信息(即,将总空闲算力资源信息加上应释放掉的算力资源),即可得到在目标时间段内的预测总空闲算力资源信息,采用该预测总空闲算力资源信息除以上述单位算力资源信息,即可得到可以进行休眠的边缘计算节点的节点数量(即节点休眠数量)。
进一步地,根据节点休眠数量即可在边缘计算节点集群中确定待休眠边缘计算节点,其具体方法可为:可获取边缘计算节点集群中的已休眠边缘计算节点;其中,已休眠边缘计算节点为边缘计算节点集群中,当前处于休眠状态的边缘计算节点;随后,可获取边缘计算节点集群对应的节点休眠轮询表;节点休眠轮询表中包括边缘计算节点集群中每个边缘计算节点的休眠轮询顺序;根据已休眠边缘计算节点在节点休眠排序表中的位置,以及节点休眠数量,可从节点休眠轮询表中依次获取待休眠边缘计算节点;待休眠边缘计算节点在当前处于正常运行状态。
以边缘计算节点集群中包括边缘计算节点1、边缘计算节点2、边缘计算节点3、边缘计算节点4、边缘计算节点5,节点休眠轮询表为{边缘计算节点1,边缘计算节点2,边缘计算节点3,边缘计算节点4,边缘计算节点5}为例,该边缘计算节点1、边缘计算节点2为已休眠边缘计算节点;节点休眠数量为2,那么可以按序获取到待休眠边缘计算节点为边缘计算节点3与边缘计算节点4,在到达目标时间段时,即可将边缘计算节点3与边缘计算节点4进行休眠处理。
可选的,根据节点休眠数量即可在边缘计算节点集群中确定待休眠边缘计算节点的具体方法还可为:可获取边缘计算节点集群中的N个正常运行边缘计算节点;其中,N个正常运行边缘计算节点在当前处于正常运行状态;N为正整数;获取N个正常运行边缘计算节点中每个正常运行边缘计算节点分别对应的节点空闲算力资源信息;将N个节点空闲算力资源信息按照大小顺序进行排序,得到节点空闲算力资源信息序列;根据节点休眠数量在节点空闲算力资源信息序列中按序获取目标节点空闲算力资源信息,将目标节点空闲算力资源信息对应的正常运行边缘计算节点确定为待休眠计算节点。也就是说,在确定出节点休眠数量后,可按照节点空闲算力资源信息从大到小的顺序,在正常运行边缘计算节点中获取到节点休眠数量对应的待休眠边缘计算节点。
进一步地,在确定待休眠边缘计算节点后,可在目标时间段内对待休眠边缘计算节点进行休眠处理,其具体方法可为:在目标时间段内,将待休眠边缘计算节点的运行状态进行冻结处理,得到冻结计算节点;随后,可统计冻结计算节点对应的节点在线业务对象的在线数量;当在线数量小于在线阈值时,获取冻结计算节点的运行数据,将运行数据迁移至目标边缘计算节点;目标边缘计算节点在目标时间段内的运行状态为正常运行状态;当成功将运行数据迁移至目标边缘计算节点时,将冻结计算节点进行休眠处理。可选的,当该在线数量等于在线阈值时,也可将运行数据进行迁移(即获取冻结计算节点的运行数据,将运行数据迁移至目标边缘计算节点),并在成功迁移后,将冻结计算节点进行休眠处理。
也就是说,在目标时间段内,可冻结待休眠边缘计算节点的节点状态,新上线的业务对象不会再分配到处于冻结状态的待休眠边缘计算节点(即冻结计算节点);在此过程中,可等待处于冻结状态的待休眠边缘计算节点(即冻结计算节点)中的在线业务对象自然下线。在过一段时间后,大部分在线业务对象关闭目标应用自然下线,但是少部分在线业务对象会仍然在线,此时可将处于冻结状态的待休眠边缘计算节点(即冻结计算节点)的运行数据迁移到其他正常运行的边缘计算节点。
步骤S104,若边缘计算节点集群满足节点唤醒条件,则根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待唤醒边缘计算节点,在目标时间段内对待唤醒边缘计算节点进行唤醒处理。
本申请中,若边缘计算节点集群满足节点唤醒条件,则可说明该总变化算力资源信息为正值,目标应用在时间段内所需求的算力资源有所增加,且总空闲算力资源信息无法满足新增的需求算力资源,此时需要唤醒已休眠的边缘计算节点来为目标应用提供算力资源。通过将总空闲算力资源信息减去总变化算力资源信息(即,将总空闲算力资源信息减去新增的需求算力资源),即可得到在目标时间段内的预测超限算力资源信息(可以是指超出了边缘计算节点集群的总算力资源信息的新增算力资源信息,即超出边缘计算节点所能提供的最大算力资源以外的、还额外需求的算力资源信息),采用该预测超限算力资源信息除以上述单位算力资源信息,即可得到需要进行唤醒的边缘计算节点的节点数量(即节点唤醒数量);根据节点唤醒数量可以在已休眠边缘计算节点中获取到待唤醒边缘计算节点。其具体方法可为:若边缘计算节点集群满足节点唤醒条件,则可根据总空闲算力资源信息与总变化算力资源信息,确定边缘计算节点集群在目标时间段内的预测超限算力资源信息;根据预测超限算力资源信息与单位算力资源信息,可确定节点唤醒数量;其中,单位算力资源信息为边缘计算节点集群中一个边缘计算节点对应的总算力资源信息;随后,可获取边缘计算节点集群中的已休眠边缘计算节点;已休眠边缘计算节点为边缘计算节点集群中,当前处于休眠状态的边缘计算节点;根据节点唤醒数量,即可在已休眠边缘计算节点中获取待唤醒边缘计算节点。
应当理解,以节点唤醒数量为2为例,在确定出节点唤醒数量为2后,可以在已休眠边缘计算节点中随机获取2个已休眠边缘计算节点,并将之在目标时间段内进行唤醒处理,加入至边缘计算节点集群中为目标应用提供功能服务。可选的,若已休眠边缘计算节点中并不存在2个已休眠边缘计算节点,那么此时可以添加新的边缘计算节点(还未上限的计算服务器)至边缘计算节点集群中(即上线新的计算服务器),使之在目标时间段内为目标应用提供功能服务。
在本申请实施例中,在确定出边缘计算节点集群的当前的总空闲算力资源信息、以及在目标应用在目标时间段内针对边缘计算节点集群的总变化算力资源信息后,可以基于总空闲算力资源信息与总变化算力资源信息,确定出边缘计算节点集群满足节点休眠条件还是节点唤醒条件。在边缘计算节点满足节点唤醒条件时,可在目标时间段内对待唤醒边缘计算节点进行唤醒处理;在满足节点休眠条件时,可以在目标时间段内对待休眠边缘计算节点进行休眠处理。而总变化算力资源信息即是目标应用在目标时间段内对边缘计算节点集群的算力需求变化信息,根据该总变化算力资源信息在目标时间段内进行休眠或唤醒处理,即是根据实时的算力需求变化信息动态休眠或唤醒边缘计算节点集群中的部分边缘计算节点。由此不仅可以使得边缘计算节点集群所提供的算力资源可以满足算力需求变化信息,还可以使得边缘计算节点集群中的边缘计算节点根据实时算力需求进行休眠,减少节点的运行数量,即可以减少运行时间,从而可以减少边缘计算节点的多余的功耗损失,大大降低节点的故障发生率,继而可以大大减少运行成本。综上,本申请可以根据实时的总变化算力资源信息,动态对边缘计算节点进行休眠或唤醒处理,使得边缘计算节点可在满足算力需求的同时,降低运行成本。
进一步地,请参见图4,图4是本申请实施例提供的一种确定边缘计算节点集群的总变化算力资源信息的流程示意图,该流程可以对应于上述图3所对应实施例中步骤S102中确定总变化算力资源信息的流程,该流程以边缘计算节点集群中包括至少两个边缘计算节点、至少两个边缘计算节点包括边缘计算节点Mi(i为正整数)为例进行说明。如图4所示,该流程可以至少包括以下步骤S401-步骤S403:
步骤S401,预测目标应用在目标时间段内针对边缘计算节点Mi的新增业务对象、下线业务对象以及场景切换业务对象。
具体的,计算机设备会获取目标应用针对边缘计算节点Mi的历史业务行为数据,然后会获取目标应用的在目标时间段内的运营活动信息;根据目标时间段内的运营活动信息、历史业务行为数据,可以确定边缘计算节点Mi在目标时间段内针对目标应用的新增业务对象;根据业务对象所在的应用活动场景、目标时间段内的运营活动信息、历史业务行为数据,可以确定边缘计算节点Mi在目标时间段内针对目标应用的下线业务对象和场景切换业务对象。其中,历史业务行为数据可以包括目标应用的在历史时间段内每个时间节点的历史在线业务对象、历史上线业务对象、历史下线业务对象以及历史场景切换业务对象的相关行为数据等等。其中,相关行为数据可以包括所在的应用活动场景、操作行为、应用运行时长等等。
应当理解,目标时间段内的运营活动信息可以是指在节假日(如五一节、七夕节、端午节)、特定节日、版本发布日等时间段,在目标应用中所上线的特殊活动,例如,以目标应用为云游戏应用为例,当在端午节时,在云游戏应用中会上线新的端午限时活动(如游戏角色赛跑活动)以及角色服装限时购买活动,业务对象很大概率会根据这些运营活动信息,在目标时间段内选择登录云游戏应用来参加这个端午限时活动、购买角色服装等等,这些在统计已占用节点算力资源信息时并未登录云游戏应用(即不属于边缘计算节点当前的在线业务对象中)、但在目标时间段内预测会登录云游戏应用的业务对象,即可称之为新增业务对象。同时,计算机设备可根据运营活动信息与历史业务行为数据,预测出在边缘计算节点的当前的在线业务对象中,在目标时间段内会关闭运行目标应用的业务对象,这些业务对象即可称之为下线业务对象;计算机设备也可根据运营活动信息与历史业务行为数据,预测出在边缘计算节点的当前的在线业务对象中,会切换场景的业务对象,这些业务对象即可称之为场景切换业务对象。
可选的,本申请实施例提供的方案可以涉及人工智能的机器学习技术,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。具体通过如下实施例进行说明:计算机设备在预测某个边缘计算节点在目标时间段内针对目标应用的下线业务用户时,可以根据下线预测模型生成业务用户所在的应用活动场景、目标应用对应的运营活动信息、业务用户发生下线行为时对应的下线行为特征,然后在下线预测模型中输出与该下线行为特征对应的预测下线标签,然后根据该预测下线标签,确定下线业务用户。其中,下线预测模型是根据历史业务行为数据训练得到的机器学习模型,用于模拟业务用户在不同时间段内的下线行为,推测用户处于什么应用活动场景、时间节点等行为状态时会下线。相应的,计算机设备预测某个边缘计算节点的场景切换业务用户和新增业务用户也可以通过相应的机器学习模型来实现。
步骤S402,根据新增业务对象的新增数量、下线业务对象的下线数量以及场景切换业务对象的切换数量,确定目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息。
具体的,可预测新增业务对象对应的初始登录场景;其中,一个或多个应用活动场景包括初始登录场景;可将下线业务对象在发生下线行为时所处的应用活动场景,确定为下线应用活动场景;将节点场景切换对象在进行场景切换前所处的应用活动场景,确定为初始应用活动场景,将场景切换对象在进行场景切换后所处的应用活动场景,确定为目标应用活动场景;获取初始登录场景、下线应用活动场景、初始应用活动场景、目标应用活动场景分别对应的平均算力需求信息,根据初始登录场景、下线应用活动场景、初始应用活动场景、目标应用活动场景分别对应的平均算力需求信息,以及切换数量、下线数量、新增数量,确定目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息。
其中,根据初始登录场景、下线应用活动场景、初始应用活动场景、目标应用活动场景分别对应的平均算力需求信息,以及切换数量、下线数量、新增数量,确定目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息的具体方法可为:根据新增数量与初始登录场景对应的平均算力需求信息,可确定节点新增业务对象对应的第一变化算力资源信息;根据下线数量与在线应用活动场景对应的平均算力需求信息,可确定节点下线业务对象对应的第二变化算力资源信息;根据初始应用活动场景对应的平均算力需求信息、目标应用活动场景对应的平均算力需求信息以及切换数量,可确定节点场景切换对象对应的第三变化算力资源信息;根据第一变化算力资源信息、第二变化算力资源信息以及第三变化算力资源信息即可确定目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息。
应当理解的是,业务对象在登录或者打开目标应用时,通常会进入一个默认界面,这个默认界面对应的场景即可称之为初始登录场景;其中,目标应用所包括的一个或多个应用活动场景,是包括该初始登录场景的。例如,业务对象在登录云游戏应用时,通常会进入游戏主页大厅场景,该游戏主页大厅场景即可称为初始登录场景。计算机设备可以获取到初始登录场景对应的平均算力需求信息(即,初始登录场景中,平均每个在线业务对象所需求的算力资源),根据新增业务对象的新增数量以及该初始登录场景对应的平均算力需求信息(例如,将新增数量与初始登录场景对应的平均算力需求信息进行相乘处理),可确定新增业务对象对应的新增算力资源信息(如,新增数量与初始登录场景对应的平均算力需求信息的乘积结果),该新增算力资源信息即可为边缘计算节点Mi为新增业务对象提供功能服务时,需要增加的算力资源;该新增算力资源信息可称之为第一变化算力资源信息。
应当理解,计算机设备也可以获取到下线业务对象在发生下线行为时所处的应用活动场景(以下将称之为下线应用活动场景),根据该下线应用活动场景对应的平均算力需求信息(即,下线应用活动场景中,平均每个在线业务对象所需求的算力资源)以及下线业务对象的下线数量,即可确定出下线业务对象对应的释放算力资源信息。也就是说,当这些下线业务用户关闭目标应用时,边缘计算节点Mi无需再为其提供功能服务,可以释放对应的算力资源。这些释放的算力资源可称之为第二变化算力资源信息。该第二变化算力资源信息可以为下线数量与该下线应用活动场景对应的平均算力需求信息的乘积。
应当理解,因为不同的应用活动场景所需求的算力资源通常不同,那么当业务对象发生场景切换时,所需求的算力资源也会发生变化(或许会增加、也或许会减少、也或许保持不变)。那么,计算机设备可以预测边缘计算节点Mi的当前的在线业务对象中,在目标时间段内会进行场景切换的业务对象,并预测这些场景切换对象在进行场景切换前所处的应用活动场景(可称之为初始应用活动场景),以及在进行场景切换后所处的应用活动场景(可称之为目标应用活动场景);针对初始应用活动场景,边缘计算节点可不再继续为这些场景切换用户提供对应的算力资源,应该释放掉对应的算力资源;而针对目标应用活动场景,边缘计算节点又需要为其提供对应的算力资源,应该新增算力资源。那么可获取到初始应用活动场景对应的平均算力需求信息(初始应用活动场景中,平均每个在线业务对象所需求的算力资源)以及目标应用活动场景对应的平均算力需求信息(目标应用活动场景中,平均每个在线业务对象所需求的算力资源),可将初始应用活动场景对应的平均算力需求信息与该场景切换用户的切换数量之间的乘积,确定为初始应用活动场景对应的应该释放掉的算力资源;可将目标应用活动场景对应的平均算力需求信息与该场景切换用户的切换数量之间的乘积,确定为目标应用活动场景对应的应该新增的算力资源。可将初始应用活动场景对应的应该释放掉的算力资源、以及目标应用活动场景对应的应该新增的算力资源进行相加处理,得到的结果即可作为场景切换用户对应的第三变化算力资源信息(可能为正值、也可能为负值)。
进一步地,可将上述新增的算力资源进行相加处理,并将相加得到的结果再减去应该释放掉的算力资源,即可得到最终的节点变化算力资源信息。即,可将第一变化算力资源信息、第三变化算力资源信息进行相加处理,再使用相加后的结果减去第二变化算力资源信息,由此可得到目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息。
步骤S403,当确定出目标应用针对至少两个边缘计算节点中每个边缘计算节点的节点变化算力资源信息时,将至少两个边缘计算节点分别对应的节点变化算力资源信息的总和,确定为边缘计算节点集群的总变化算力资源信息。
应当理解,每个边缘计算节点都可采用上述确定边缘计算节点Mi的节点变化算力资源信息的方式,确定出其对应的节点变化算力资源信息。当确定出边缘计算节点集群中的每个边缘计算节点的节点变化算力资源信息后,可统计出边缘计算节点集群中所有边缘计算节点的节点变化算力资源信息的总和,由此即可确定出边缘计算节点集群对应的总变化算力资源信息。
进一步地,请参见图5,图5是本申请实施例提供的一种确定边缘计算节点集群满足的节点处理条件的方法流程图。该流程可以对应于上述图3所对应实施例中步骤S103中确定边缘计算节点集群的节点处理条件的流程。如图5所示,该流程可以包括以下步骤S201-步骤S203:
步骤S201,根据总变化算力资源信息确定边缘计算节点集群对应的算力资源变化趋势。
具体的,算力资源变化趋势可以包括增长变化趋势、缩减变化趋势以及平稳变化趋势(即总变化算力资源信息为0)。应当理解,可将总变化算力资源信息与数值0进行比较,从而可判断目标应用在目标时间段内对算力资源的需求是否发生变化,若发生变化是增长变化还是减少变化。若总变化算力资源信息大于数值0,则为增长变化,则该算力资源变化趋势即可为增长变化趋势;若总变化算力资源信息小于数值0,则为减少变化,则该算力资源变化趋势即可为缩减变化趋势;若总变化算力资源信息等于数值0,则该目标应用在目标时间段内对算力资源的需求并未发生变化,则该算力资源变化趋势即可为平稳变化趋势。
步骤S202,若算力资源变化趋势为增长变化趋势,则根据总空闲算力资源信息与总变化算力资源信息,确定边缘计算节点集群所满足的节点处理条件;节点处理条件包括节点唤醒条件和节点休眠条件。
具体的,若算力资源变化趋势为增长变化趋势,则可将总空闲算力资源信息与总变化算力资源信息进行比较;若总空闲算力资源信息大于总变化算力资源信息,则可确定边缘计算节点集群满足节点休眠条件;若总空闲算力资源信息小于总变化算力资源信息,则可确定边缘计算节点集群满足节点唤醒条件。
可以理解的是,若总变化算力资源信息大于数值0,则可确定目标应用针对边缘计算节点集群的算力需求为增长变化,则该边缘计算节点集群对应的算力资源变化趋势为增长变化趋势;此时,可将总空闲算力资源信息与总变化算力资源信息进行比较,判断总空闲算力资源信息是否可以满足新增的这部分算力资源,若总空闲算力资源信息大于总变化算力资源信息,则可确定总空闲算力资源信息在满足新增的这部分算力资源后,还存在多余的空闲算力资源信息,此时为减少边缘计算节点集群的运行功耗损失、减少边缘计算节点的运行时间,可以在目标时间段内对边缘计算节点集群的部分边缘计算节点进行休眠处理,即边缘计算节点集群此时满足节点休眠条件;而若总空闲算力资源信息小于总变化算力资源信息,则可确定总空闲算力资源信息无法满足新增的这部分算力资源,此时可以确定边缘计算节点集群满足节点唤醒条件,可以在目标时间段内唤醒边缘计算节点集群中处于休眠状态的边缘计算节点,使之正常运行为目标应用提供算力资源(可选的,若边缘计算节点集群中并不存在处于休眠状态的边缘计算节点,那么在目标时间段内可以增加新的边缘计算节点,将之部署至边缘计算节点集群中,为目标应用提供算力资源);而若总空闲算力资源信息等于总变化算力资源信息,则可确定总空闲算力资源信息可以满足新增的这部分算力资源,同时并不存在多余的空闲算力资源信息,则在目标时间段内可以不对边缘计算节点集群进行休眠处理或唤醒处理。
步骤S203,若算力资源变化趋势为缩减变化趋势,则确定边缘计算节点集群满足节点休眠条件。
具体的,若总变化算力资源信息小于数值0,则可确定目标应用针对边缘计算节点集群的算力需求为缩减变化,则该边缘计算节点集群对应的算力资源变化趋势为缩减变化趋势;此时,边缘计算节点集群可以释放部分算力资源,那么在目标时间段内可直接对边缘计算节点集群的部分边缘计算节点进行休眠处理,即边缘计算节点集群此时满足节点休眠条件。
可以理解的是,若总变化算力资源信息等于数值0,则可确定目标应用针对边缘计算节点集群的算力需求并未发生变化,此时可以不对边缘计算节点进行节点休眠处理或节点唤醒处理。可选的,在总变化算力资源信息等于数值0时,可以根据总空闲算力资源信息的大小,来判断是否要对边缘计算节点集群进行休眠处理,若总空闲算力资源信息足够多(例如,总空闲算力资源信息大于空闲算力阈值(可为人为规定值)),那在目标时间段内可以对边缘计算节点集群中的部分边缘计算节点进行休眠处理。可选的,在总变化算力资源信息小于数值0时,若总变化算力资源信息的值很小(即目标应用的算力资源的需求变化很小,总变化算力资源信息为略大于0的值),那么此时可以保持边缘计算节点集群的状态不变,不对边缘计算节点集群中的边缘计算节点进行休眠处理或唤醒处理。
在本申请实施例中,在确定出边缘计算节点集群的当前的总空闲算力资源信息、以及在目标应用在目标时间段内针对边缘计算节点集群的总变化算力资源信息后,可以基于总空闲算力资源信息与总变化算力资源信息,确定出边缘计算节点集群满足节点休眠条件还是节点唤醒条件。在边缘计算节点满足节点唤醒条件时,可在目标时间段内对待唤醒边缘计算节点进行唤醒处理;在满足节点休眠条件时,可以在目标时间段内对待休眠边缘计算节点进行休眠处理。而总变化算力资源信息即是目标应用在目标时间段内对边缘计算节点集群的算力需求变化信息,根据该总变化算力资源信息在目标时间段内进行休眠或唤醒处理,即是根据实时的算力需求变化信息动态休眠或唤醒边缘计算节点集群中的部分边缘计算节点。由此不仅可以使得边缘计算节点集群所提供的算力资源可以满足算力需求变化信息,还可以使得边缘计算节点集群中的边缘计算节点根据实时算力需求进行休眠,减少节点的运行数量,即可以减少运行时间,从而可以减少边缘计算节点的多余的功耗损失,大大降低节点的故障发生率,继而可以大大减少运行成本。综上,本申请可以根据实时的总变化算力资源信息,动态对边缘计算节点进行休眠或唤醒处理,使得边缘计算节点可在满足算力需求的同时,降低运行成本。
进一步地,为便于理解,请参见图6,图6是本申请实施例提供的一种进行节点处理的逻辑流程图,如图6所示,该逻辑流程可以包括至少以下步骤S51-步骤S512:
步骤S51,预测算力资源变化趋势。
具体的,算力资源变化趋势可以包括增长变化趋势、缩减变化趋势,还可包括平稳变化趋势。
步骤S52,根据算力资源变化趋势,确定目标应用的需求算力是否增长。
具体的,若目标应用的需求算力增长,则可进入后续步骤S53;若目标应用的需求算力未增长(即为减少或保持不变),则可进入后续步骤S54。
步骤S53,判断空闲算力是否可以满足新增的需求算力。
具体的,当目标应用的需求算力增长时,若边缘计算节点集群的总空闲算力资源信息可以满足新增的需求算力,那么可以进入后续步骤S55;而若边缘计算节点集群的总空闲算力资源信息无法满足新增的需求算力,则可以进入后续步骤S56。
步骤S54,判断需求算力是否不变。
具体的,当目标应用的需求算力未增长时,可判断目标应用的需求算力是出于不变状态,还是有所减少。若目标应用的需求算力为不变状态,则可进入后续步骤S59;若目标应用的需求算力有所减少,则可进入后续步骤S510。
步骤S55,保持边缘计算节点集群的休眠或唤醒状态不变。
具体的,保持边缘计算节点集群的休眠或唤醒状态不变,即是在目标时间段内不对边缘计算节点集群进行休眠或唤醒处理。
步骤S56,计算唤醒数量。
具体的,如上述步骤S53所述,若边缘计算节点集群的总空闲算力资源信息无法满足新增的需求算力,则可以计算节点唤醒数量。
步骤S57,逐台唤醒。
具体的,计算出节点唤醒数量后,可在已休眠边缘计算节点中逐台唤醒节点唤醒数量对应的边缘计算节点。
步骤S58,加入集群。
具体的,可以将唤醒的边缘计算节点加入至边缘计算节点集群,在目标时间段内为目标应用提供算力资源。
步骤S59,保持边缘计算节点集群的休眠或唤醒状态不变。
步骤S510,计算休眠数量。
具体的,如上述步骤S54所述,若目标应用的需求算力有所减少,则可计算节点休眠数量。
步骤S511,冻结休眠节点。
具体的,计算出节点休眠数量后,可获取到待休眠边缘计算节点,并进行冻结。
步骤S512,实例迁移。
具体的,实例迁移即是将待休眠边缘计算节点的运行数据进行迁移。为便于理解,请一并参见图7,图7是本申请实施例提供的一种迁移运行数据的流程示意图。如图7所示,该流程可以包括以下步骤S5121-步骤S5125:
步骤S5121,运行状态保存。
具体的,可以在待休眠边缘计算节点上,保存目标应用实例的所有运行状态数据。
步骤S5122,数据传输。
具体的,可将上述运行状态数据传输到目标边缘计算节点(目标时间段内处于正常运行状态的任一边缘计算节点)。
步骤S5123,拉起实例。
具体的,在目标边缘计算节点中,可拉起新的应用实例,并载入上述运行状态数据。
步骤S5124,断线或重新建联。
具体的,可以断开待休眠边缘计算节点与目标应用的连接,同时建立目标边缘计算节点与目标应用的连接,成功连接后在待休眠边缘计算节点中销毁应用实例。
步骤S5125,恢复应用流程。
具体的,在待休眠边缘计算节点中继续渲染目标应用,并用上述连接继续应用流程。
需要说明的是,运行数据的迁移过程需要无缝迁移、快速迁移,数据迁移的各个环节的时间应严格控制,避免业务对象产生明显的感知;因为目标应用中存在场景切换、场景加载(如云游戏应用中的对局加载)等特殊场景,这个时候业务对象会等待应用加载资源,本申请中可以选取此类等待应用加载资源的时间,进行运行数据的迁移,这仅仅会增加极少的加载等待时间,并不会影响业务对象在目标应用中的实际操作。
步骤S513,休眠处理。
具体的,在运行数据成功迁移后,可将待休眠边缘计算节点进行休眠处理。
其中,对于步骤S51-步骤S513的具体实现方式,可以参见上述图3所对应实施例中步骤S101-步骤S104的描述,这里将不再进行赘述。
进一步地,请参见图8,图8是本申请实施例提供的一种系统架构图。如图8所示,该系统整体可以包括管理服务器与边缘计算节点,其中,该边缘计算节点可以包括实例管理模块、算力信息收集模块、机器控制模块。为便于理解,以下将对各个模块对应的功能进行阐述。
算力信息收集模块,主要用于收集当前的算力占用情况并上报到管理服务器。主要可以包括CPU算力信息收集、GPU算力信息收集,其中,CPU算力信息收集主要收集CPU型号、当前能够达到的最大算力、当前实际使用算力(即已占用的算力)等;而GPU算力信息收集主要收集GPU型号、当前能够达到的最大算力、当前实际使用算力。
实例管理模块,主要用于实例迁移与实例接收。实例迁移主要包括:当本机需要修满时,把本机的应用实例(如云游戏实例)迁移到另一个边缘计算节点;实例接收包括:接收待休眠的边缘计算节点迁移过来的应用实例。
机器控制模块,主要用于根据管理服务器的指令进行休眠或唤醒操作。
管理服务器可以包括数据分析模块、算力预测模块、实例调度模块、节点调度模块,为便于理解,以下将对各个模块对应的功能进行阐述。
数据分析模块:用于接收边缘计算节点的数据上报,并进行初步的分析供其他模块使用。
算力预测模块:用于预测边缘计算节点的空闲算力或算力缺口(即边缘计算节点集群缺少的算力),根据各个边缘计算节点的最大算力计算出需要休眠或唤醒的机器数量。
节点调度模块,用于根据算力预测模块的计算结果,确定休眠或唤醒的边缘计算节点,确保所有边缘计算节点可以轮流进行休眠,以保持边缘计算节点的运行时长能基本保持一致,实现性能损耗与使用寿命的保持一致。
实例调度模块,用于当存在边缘计算节点需要休眠时,进行应用实例的调度(包括新的请求不再分配到待休眠的边缘计算节点、运行数据迁移等)。
在本申请实施例中,在确定出边缘计算节点集群的当前的总空闲算力资源信息、以及在目标应用在目标时间段内针对边缘计算节点集群的总变化算力资源信息后,可以基于总空闲算力资源信息与总变化算力资源信息,确定出边缘计算节点集群满足节点休眠条件还是节点唤醒条件。在边缘计算节点满足节点唤醒条件时,可在目标时间段内对待唤醒边缘计算节点进行唤醒处理;在满足节点休眠条件时,可以在目标时间段内对待休眠边缘计算节点进行休眠处理。而总变化算力资源信息即是目标应用在目标时间段内对边缘计算节点集群的算力需求变化信息,根据该总变化算力资源信息在目标时间段内进行休眠或唤醒处理,即是根据实时的算力需求变化信息动态休眠或唤醒边缘计算节点集群中的部分边缘计算节点。由此不仅可以使得边缘计算节点集群所提供的算力资源可以满足算力需求变化信息,还可以使得边缘计算节点集群中的边缘计算节点根据实时算力需求进行休眠,减少节点的运行数量,即可以减少运行时间,从而可以减少边缘计算节点的多余的功耗损失,大大降低节点的故障发生率,继而可以大大减少运行成本。综上,本申请可以根据实时的总变化算力资源信息,动态对边缘计算节点进行休眠或唤醒处理,使得边缘计算节点可在满足算力需求的同时,降低运行成本。
进一步地,请参见图9,图9是本申请实施例提供的一种基于边缘计算的数据处理装置的结构示意图。该基于边缘计算的数据处理装置可以是运行于计算机设备中的一个计算机程序(包括程序代码),例如该基于边缘计算的数据处理装置为一个应用软件;该基于边缘计算的数据处理装置可以用于执行图3所示的方法。如图9所示,该基于边缘计算的数据处理装置1可以包括:空闲资源获取模块11、变化资源预测模块12、休眠处理模块13以及唤醒处理模块14。
空闲资源获取模块11,用于获取边缘计算节点集群的总空闲算力资源信息;总空闲算力资源信息为在运行目标应用时,目标应用未占用的边缘计算节点集群的算力资源信息;
变化资源预测模块12,用于预测目标应用在目标时间段内,针对边缘计算节点集群的总变化算力资源信息;
休眠处理模块13,用于若边缘计算节点集群满足节点休眠条件,则根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待休眠边缘计算节点;
休眠处理模块13,还用于在目标时间段内对待休眠边缘计算节点进行休眠处理;
唤醒处理模块14,用于若边缘计算节点集群满足节点唤醒条件,则根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待唤醒边缘计算节点;
唤醒处理模块14,还用于在目标时间段内对待唤醒边缘计算节点进行唤醒处理。
其中,空闲资源获取模块11、变化资源预测模块12、休眠处理模块13以及唤醒处理模块14的具体实现方式,可以参见上述图3所对应实施例中步骤S101-步骤S104的描述,这里将不再进行赘述。
在一个实施例中,休眠处理模块13可以包括:休眠数量确定单元131以及休眠节点确定单元132。
休眠数量确定单元131,用于若边缘计算节点集群满足节点休眠条件,则根据总空闲算力资源信息与总变化算力资源信息,确定边缘计算节点集群在目标时间段内的预测总空闲算力资源信息;
休眠数量确定单元131,还用于根据预测总空闲算力资源信息与单位算力资源信息,确定节点休眠数量;单位算力资源信息为边缘计算节点集群中一个边缘计算节点对应的总算力资源信息;
休眠节点确定单元132,用于根据节点休眠数量在边缘计算节点集群中确定待休眠边缘计算节点。
其中,休眠数量确定单元131以及休眠节点确定单元132的具体实现方式,可以参见上述图3所对应实施例中步骤S103的描述,这里将不再进行赘述。
在一个实施例中,休眠节点确定单元132可以包括:已休眠节点获取子单元1321、轮询表获取子单元1322以及休眠节点确定子单元1323。
已休眠节点获取子单元1321,用于获取边缘计算节点集群中的已休眠边缘计算节点;已休眠边缘计算节点为边缘计算节点集群中,当前处于休眠状态的边缘计算节点;
轮询表获取子单元1322,用于获取边缘计算节点集群对应的节点休眠轮询表;节点休眠轮询表中包括边缘计算节点集群中每个边缘计算节点的休眠轮询顺序;
休眠节点确定子单元1323,用于根据已休眠边缘计算节点在节点休眠排序表中的位置,以及节点休眠数量,从节点休眠轮询表中依次获取待休眠边缘计算节点;待休眠边缘计算节点在当前处于正常运行状态。
其中,已休眠节点获取子单元1321、轮询表获取子单元1322以及休眠节点确定子单元1323的具体实现方式,可以参见上述图3所对应实施例中步骤S103的描述,这里将不再进行赘述。
在一个实施例中,休眠节点确定单元132还可以包括:正常节点获取子单元1324、排序子单元1325以及休眠节点获取子单元1326。
正常节点获取子单元1324,用于获取边缘计算节点集群中的N个正常运行边缘计算节点;N个正常运行边缘计算节点在当前处于正常运行状态;N为正整数;
排序子单元1325,用于获取N个正常运行边缘计算节点中每个正常运行边缘计算节点分别对应的节点空闲算力资源信息;
排序子单元1325,还用于将N个节点空闲算力资源信息按照大小顺序进行排序,得到节点空闲算力资源信息序列;
休眠节点获取子单元1326,用于根据节点休眠数量在节点空闲算力资源信息序列中按序获取目标节点空闲算力资源信息,将目标节点空闲算力资源信息对应的正常运行边缘计算节点确定为待休眠计算节点。
其中,正常节点获取子单元1324、排序子单元1325以及休眠节点获取子单元1326的具体实现方式,可以参见上述图3所对应实施例中步骤S103的描述,这里将不再进行赘述。
在一个实施例中,休眠处理模块13可以包括:冻结处理单元133、数量统计单元134、数据迁移单元135以及休眠处理单元136。
冻结处理单元133,用于在目标时间段内,将待休眠边缘计算节点的运行状态进行冻结处理,得到冻结计算节点;
数量统计单元134,用于统计冻结计算节点对应的节点在线业务对象的在线数量;
数据迁移单元135,用于当在线数量小于在线阈值时,获取冻结计算节点的运行数据,将运行数据迁移至目标边缘计算节点;目标边缘计算节点在目标时间段内的运行状态为正常运行状态;
休眠处理单元136,用于当成功将运行数据迁移至目标边缘计算节点时,将冻结计算节点进行休眠处理。
其中,冻结处理单元133、数量统计单元134、数据迁移单元135以及休眠处理单元136的具体实现方式,可以参见上述图3所对应实施例中步骤S103的描述,这里将不再进行赘述。
在一个实施例中,唤醒处理模块14可以包括:唤醒数量确定单元141以及唤醒节点获取单元142。
唤醒数量确定单元141,用于若边缘计算节点集群满足节点唤醒条件,则根据总空闲算力资源信息与总变化算力资源信息,确定边缘计算节点集群在目标时间段内的预测超限算力资源信息;
唤醒数量确定单元141,还用于根据预测超限算力资源信息与单位算力资源信息,确定节点唤醒数量;单位算力资源信息为边缘计算节点集群中一个边缘计算节点对应的总算力资源信息;
唤醒节点获取单元142,用于获取边缘计算节点集群中的已休眠边缘计算节点;已休眠边缘计算节点为边缘计算节点集群中,当前处于休眠状态的边缘计算节点;
唤醒节点获取单元142,还用于根据节点唤醒数量,在已休眠边缘计算节点中获取待唤醒边缘计算节点。
其中,唤醒数量确定单元141以及唤醒节点获取单元142的具体实现方式,可以参见上述图3所对应实施例中步骤S104的描述,这里将不再进行赘述。
在一个实施例中,该基于边缘计算的数据处理装置1还可以包括:变化趋势确定模块15以及条件确定模块16。
变化趋势确定模块15,用于根据总变化算力资源信息确定边缘计算节点集群对应的算力资源变化趋势;
条件确定模块16,用于若算力资源变化趋势为增长变化趋势,则根据总空闲算力资源信息与总变化算力资源信息,确定边缘计算节点集群所满足的节点处理条件;节点处理条件包括节点唤醒条件和节点休眠条件;
条件确定模块16,还用于若算力资源变化趋势为缩减变化趋势,则确定边缘计算节点集群满足节点休眠条件。
其中,变化趋势确定模块15以及条件确定模块16的具体实现方式,可以参见上述图3所对应实施例中步骤S102的描述,这里将不再进行赘述。
在一个实施例中,条件确定模块16可以包括:资源比较单元161以及条件确定单元162。
资源比较单元161,用于将总空闲算力资源信息与总变化算力资源信息进行比较;
条件确定单元162,用于若总空闲算力资源信息大于总变化算力资源信息,则确定边缘计算节点集群满足节点休眠条件;
条件确定单元162,还用于若总空闲算力资源信息小于总变化算力资源信息,则确定边缘计算节点集群满足节点唤醒条件。
其中,资源比较单元161以及条件确定单元162的具体实现方式,可以参见上述图3所对应实施例中步骤S102的描述,这里将不再进行赘述。
在一个实施例中,边缘计算节点集群中包括至少两个边缘计算节点;至少两个边缘计算节点包括边缘计算节点Mi;i为正整数;
空闲资源获取模块11可以包括:占用资源确定单元111以及空闲资源确定单元112。
占用资源确定单元111,用于获取目标应用在边缘计算节点Mi中的Q个当前运行信息;一个当前运行信息包括一个在线业务对象所在的应用活动场景,以及在应用活动场景中的业务对象占用资源信息;
占用资源确定单元111,还用于获取每个当前运行信息对应的业务对象占用资源信息,得到Q个业务对象占用资源信息;
占用资源确定单元111,还用于将Q个业务对象占用资源信息的总和,确定为目标应用针对边缘计算节点Mi的已占用节点算力资源信息;
空闲资源确定单元112,用于当确定出目标应用针对至少两个边缘计算节点中每个边缘计算节点的已占用节点算力资源信息时,根据至少两个边缘计算节点分别对应的已占用节点算力资源信息,确定边缘计算节点集群的总空闲算力资源信息。
其中,占用资源确定单元111以及空闲资源确定单元112的具体实现方式,可以参见上述图3所对应实施例中步骤S101的描述,这里将不再进行赘述。
在一个实施例中,空闲资源确定单元112,还具体用于获取至少两个边缘计算节点中每个边缘计算节点分别对应的最大算力资源信息,得到至少两个最大算力资源信息;
空闲资源确定单元112,还具体用于确定至少两个最大算力资源信息对应的总算力资源信息,确定至少两个已占用节点算力资源信息对应的总占用算力资源信息;
空闲资源确定单元112,还具体用于将总算力资源信息与总占用算力资源信息之间的资源差值绝对值,确定为边缘计算节点集群的总空闲算力资源信息。
在一个实施例中,边缘计算节点集群中包括至少两个边缘计算节点;至少两个边缘计算节点包括边缘计算节点Mi;i为正整数;
变化资源预测模块12可以包括:对象预测单元121以及变化资源确定单元122。
对象预测单元121,用于预测目标应用在目标时间段内针对边缘计算节点Mi的新增业务对象、下线业务对象以及场景切换业务对象;
变化资源确定单元122,用于根据新增业务对象的新增数量、下线业务对象的下线数量以及场景切换业务对象的切换数量,确定目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息;
变化资源确定单元122,还用于当确定出目标应用针对至少两个边缘计算节点中每个边缘计算节点的节点变化算力资源信息时,将至少两个边缘计算节点分别对应的节点变化算力资源信息的总和,确定为边缘计算节点集群的总变化算力资源信息。
其中,对象预测单元121以及变化资源确定单元122的具体实现方式,可以参见上述图3所对应实施例中步骤S102的描述,这里将不再进行赘述。
在一个实施例中,目标应用包括一个或多个应用活动场景;
变化资源确定单元122,还具体用于预测新增业务对象对应的初始登录场景;一个或多个应用活动场景包括初始登录场景;
变化资源确定单元122,还具体用于将下线业务对象在发生下线行为时所处的应用活动场景,确定为下线应用活动场景;
变化资源确定单元122,还具体用于将节点场景切换对象在进行场景切换前所处的应用活动场景,确定为初始应用活动场景,将场景切换对象在进行场景切换后所处的应用活动场景,确定为目标应用活动场景;
变化资源确定单元122,还具体用于获取初始登录场景、下线应用活动场景、初始应用活动场景、目标应用活动场景分别对应的平均算力需求信息,根据初始登录场景、下线应用活动场景、初始应用活动场景、目标应用活动场景分别对应的平均算力需求信息,以及切换数量、下线数量、新增数量,确定目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息。
在一个实施例中,变化资源确定单元122,还具体用于根据新增数量与初始登录场景对应的平均算力需求信息,确定节点新增业务对象对应的第一变化算力资源信息;
变化资源确定单元122,还具体用于根据下线数量与在线应用活动场景对应的平均算力需求信息,确定节点下线业务对象对应的第二变化算力资源信息;
变化资源确定单元122,还具体用于根据初始应用活动场景对应的平均算力需求信息、目标应用活动场景对应的平均算力需求信息以及切换数量,确定节点场景切换对象对应的第三变化算力资源信息;
变化资源确定单元122,还具体用于根据第一变化算力资源信息、第二变化算力资源信息以及第三变化算力资源信息确定目标应用在目标时间段内,针对边缘计算节点Mi的节点变化算力资源信息。
在本申请实施例中,在确定出边缘计算节点集群的当前的总空闲算力资源信息、以及在目标应用在目标时间段内针对边缘计算节点集群的总变化算力资源信息后,可以基于总空闲算力资源信息与总变化算力资源信息,确定出边缘计算节点集群满足节点休眠条件还是节点唤醒条件。在边缘计算节点满足节点唤醒条件时,可在目标时间段内对待唤醒边缘计算节点进行唤醒处理;在满足节点休眠条件时,可以在目标时间段内对待休眠边缘计算节点进行休眠处理。而总变化算力资源信息即是目标应用在目标时间段内对边缘计算节点集群的算力需求变化信息,根据该总变化算力资源信息在目标时间段内进行休眠或唤醒处理,即是根据实时的算力需求变化信息动态休眠或唤醒边缘计算节点集群中的部分边缘计算节点。由此不仅可以使得边缘计算节点集群所提供的算力资源可以满足算力需求变化信息,还可以使得边缘计算节点集群中的边缘计算节点根据实时算力需求进行休眠,减少节点的运行数量,即可以减少运行时间,从而可以减少边缘计算节点的多余的功耗损失,大大降低节点的故障发生率,继而可以大大减少运行成本。综上,本申请可以根据实时的总变化算力资源信息,动态对边缘计算节点进行休眠或唤醒处理,使得边缘计算节点可在满足算力需求的同时,降低运行成本。
进一步地,请参见图10,图10是本申请实施例提供的一种计算机设备的结构示意图。如图10所示,上述图9所对应实施例中的装置1可以应用于上述计算机设备1000,上述计算机设备1000可以包括:处理器1001,网络接口1004和存储器1005,此外,上述计算机设备1000还包括:对象接口1003,和至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,对象接口1003可以包括显示屏(Display)、键盘(Keyboard),可选对象接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图10所示,作为一种计算机可读存储介质的存储器1005中可以包括操作系统、网络通信模块、对象接口模块以及设备控制应用程序。
在图10所示的计算机设备1000中,网络接口1004可提供网络通讯功能;而对象接口1003主要用于为对象提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:
获取边缘计算节点集群的总空闲算力资源信息;总空闲算力资源信息为在运行目标应用时,目标应用未占用的边缘计算节点集群的算力资源信息;
预测目标应用在目标时间段内,针对边缘计算节点集群的总变化算力资源信息;
若边缘计算节点集群满足节点休眠条件,则根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待休眠边缘计算节点,在目标时间段内对待休眠边缘计算节点进行休眠处理;
若边缘计算节点集群满足节点唤醒条件,则根据总空闲算力资源信息与总变化算力资源信息,在边缘计算节点集群中确定待唤醒边缘计算节点,在目标时间段内对待唤醒边缘计算节点进行唤醒处理。
应当理解,本申请实施例中所描述的计算机设备1000可执行前文图3到图5所对应实施例中对该基于边缘计算的数据处理方法的描述,也可执行前文图9所对应实施例中对该基于边缘计算的数据处理装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本申请实施例还提供了一种计算机可读存储介质,且上述计算机可读存储介质中存储有前文提及的数据处理的计算机设备1000所执行的计算机程序,且上述计算机程序包括程序指令,当上述处理器执行上述程序指令时,能够执行前文图3到图5所对应实施例中对上述基于边缘计算节点的数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。
上述计算机可读存储介质可以是前述任一实施例提供的基于边缘计算的数据处理装置或者上述计算机设备的内部存储单元,例如计算机设备的硬盘或内存。该计算机可读存储介质也可以是该计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(smart media card,SMC),安全数字(secure digital,SD)卡,闪存卡(flash card)等。进一步地,该计算机可读存储介质还可以既包括该计算机设备的内部存储单元也包括外部存储设备。该计算机可读存储介质用于存储该计算机程序以及该计算机设备所需的其他程序和数据。该计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例中一方面提供的方法。
本申请实施例的说明书和权利要求书及附图中的术语“第一”、“第二”等是用于区别不同对象,而非用于描述特定顺序。此外,术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、装置、产品或设备没有限定于已列出的步骤或模块,而是可选地还包括没有列出的步骤或模块,或可选地还包括对于这些过程、方法、装置、产品或设备固有的其他步骤单元。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例提供的方法及相关装置是参照本申请实施例提供的方法流程图和/或结构示意图来描述的,具体可由计算机程序指令实现方法流程图和/或结构示意图的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。这些计算机程序指令可提供到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或结构示意一个方框或多个方框中指定的功能的步骤。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (15)
1.一种基于边缘计算的数据处理方法,其特征在于,包括:
获取边缘计算节点集群的总空闲算力资源信息;所述总空闲算力资源信息为在运行目标应用时,所述目标应用未占用的所述边缘计算节点集群的算力资源信息;
预测所述目标应用在目标时间段内,针对所述边缘计算节点集群的总变化算力资源信息;
若所述边缘计算节点集群满足节点休眠条件,则根据所述总空闲算力资源信息与所述总变化算力资源信息,在所述边缘计算节点集群中确定待休眠边缘计算节点,在所述目标时间段内对所述待休眠边缘计算节点进行休眠处理;
若所述边缘计算节点集群满足节点唤醒条件,则根据所述总空闲算力资源信息与所述总变化算力资源信息,在所述边缘计算节点集群中确定待唤醒边缘计算节点,在所述目标时间段内对所述待唤醒边缘计算节点进行唤醒处理。
2.根据权利要求1所述的方法,其特征在于,所述若所述边缘计算节点集群满足节点休眠条件,则根据所述总空闲算力资源信息与所述总变化算力资源信息,在所述边缘计算节点集群中确定待休眠边缘计算节点,包括:
若所述边缘计算节点集群满足节点休眠条件,则根据所述总空闲算力资源信息与所述总变化算力资源信息,确定所述边缘计算节点集群在所述目标时间段内的预测总空闲算力资源信息;
根据所述预测总空闲算力资源信息与单位算力资源信息,确定节点休眠数量;所述单位算力资源信息为所述边缘计算节点集群中一个边缘计算节点对应的总算力资源信息;
根据所述节点休眠数量在所述边缘计算节点集群中确定所述待休眠边缘计算节点。
3.根据权利要求2所述的方法,其特征在于,所述根据所述节点休眠数量在所述边缘计算节点集群中确定所述待休眠边缘计算节点,包括:
获取所述边缘计算节点集群中的已休眠边缘计算节点;所述已休眠边缘计算节点为所述边缘计算节点集群中,当前处于休眠状态的边缘计算节点;
获取所述边缘计算节点集群对应的节点休眠轮询表;所述节点休眠轮询表中包括所述边缘计算节点集群中每个边缘计算节点的休眠轮询顺序;
根据所述已休眠边缘计算节点在所述节点休眠排序表中的位置,以及所述节点休眠数量,从所述节点休眠轮询表中依次获取待休眠边缘计算节点;所述待休眠边缘计算节点在当前处于正常运行状态。
4.根据权利要求2所述的方法,其特征在于,所述根据所述节点休眠数量在所述边缘计算节点集群中确定所述待休眠边缘计算节点,包括:
获取所述边缘计算节点集群中的N个正常运行边缘计算节点;所述N个正常运行边缘计算节点在当前处于正常运行状态;N为正整数;
获取所述N个正常运行边缘计算节点中每个正常运行边缘计算节点分别对应的节点空闲算力资源信息;
将N个节点空闲算力资源信息按照大小顺序进行排序,得到节点空闲算力资源信息序列;
根据所述节点休眠数量在所述节点空闲算力资源信息序列中按序获取目标节点空闲算力资源信息,将所述目标节点空闲算力资源信息对应的正常运行边缘计算节点确定为所述待休眠计算节点。
5.根据权利要求1所述的方法,其特征在于,所述在所述目标时间段内对所述待休眠边缘计算节点进行休眠处理,包括:
在所述目标时间段内,将所述待休眠边缘计算节点的运行状态进行冻结处理,得到冻结计算节点;
统计所述冻结计算节点对应的节点在线业务对象的在线数量;
当所述在线数量小于在线阈值时,获取所述冻结计算节点的运行数据,将所述运行数据迁移至目标边缘计算节点;所述目标边缘计算节点在所述目标时间段内的运行状态为正常运行状态;
当成功将所述运行数据迁移至所述目标边缘计算节点时,将所述冻结计算节点进行休眠处理。
6.根据权利要求1所述的方法,其特征在于,所述若所述边缘计算节点集群满足节点唤醒条件,则根据所述总空闲算力资源信息与所述总变化算力资源信息,在所述边缘计算节点集群中确定待唤醒边缘计算节点,包括:
若所述边缘计算节点集群满足节点唤醒条件,则根据所述总空闲算力资源信息与所述总变化算力资源信息,确定所述边缘计算节点集群在所述目标时间段内的预测超限算力资源信息;
根据所述预测超限算力资源信息与单位算力资源信息,确定节点唤醒数量;所述单位算力资源信息为所述边缘计算节点集群中一个边缘计算节点对应的总算力资源信息;
获取所述边缘计算节点集群中的已休眠边缘计算节点;所述已休眠边缘计算节点为所述边缘计算节点集群中,当前处于休眠状态的边缘计算节点;
根据所述节点唤醒数量,在所述已休眠边缘计算节点中获取所述待唤醒边缘计算节点。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述总变化算力资源信息确定所述边缘计算节点集群对应的算力资源变化趋势;
若所述算力资源变化趋势为增长变化趋势,则根据所述总空闲算力资源信息与所述总变化算力资源信息,确定所述边缘计算节点集群所满足的节点处理条件;所述节点处理条件包括所述节点唤醒条件和所述节点休眠条件;
若所述算力资源变化趋势为缩减变化趋势,则确定所述边缘计算节点集群满足所述节点休眠条件。
8.根据权利要求7所述的方法,其特征在于,所述根据所述总空闲算力资源信息与所述总变化算力资源信息,确定所述边缘计算节点集群所满足的节点处理条件,包括:
将所述总空闲算力资源信息与所述总变化算力资源信息进行比较;
若所述总空闲算力资源信息大于所述总变化算力资源信息,则确定所述边缘计算节点集群满足所述节点休眠条件;
若所述总空闲算力资源信息小于所述总变化算力资源信息,则确定所述边缘计算节点集群满足所述节点唤醒条件。
9.根据权利要求1所述的方法,其特征在于,所述边缘计算节点集群中包括至少两个边缘计算节点;所述至少两个边缘计算节点包括边缘计算节点Mi;i为正整数;
所述获取边缘计算节点集群的总空闲算力资源信息,包括:
获取所述目标应用在所述边缘计算节点Mi中的Q个当前运行信息;一个当前运行信息包括一个在线业务对象所在的应用活动场景,以及在所述应用活动场景中的业务对象占用资源信息;Q为正整数;
获取每个当前运行信息对应的业务对象占用资源信息,得到Q个业务对象占用资源信息;
将所述Q个业务对象占用资源信息的总和,确定为所述目标应用针对边缘计算节点Mi的已占用节点算力资源信息;
当确定出所述目标应用针对至少两个边缘计算节点中每个边缘计算节点的已占用节点算力资源信息时,根据所述至少两个边缘计算节点分别对应的已占用节点算力资源信息,确定所述边缘计算节点集群的总空闲算力资源信息。
10.根据权利要求9所述的方法,其特征在于,所述根据所述至少两个边缘计算节点分别对应的已占用节点算力资源信息,确定所述边缘计算节点集群的总空闲算力资源信息,包括:
获取所述至少两个边缘计算节点中每个边缘计算节点分别对应的最大算力资源信息,得到至少两个最大算力资源信息;
确定所述至少两个最大算力资源信息对应的总算力资源信息,确定至少两个已占用节点算力资源信息对应的总占用算力资源信息;
将所述总算力资源信息与所述总占用算力资源信息之间的资源差值绝对值,确定为所述边缘计算节点集群的总空闲算力资源信息。
11.根据权利要求1所述的方法,其特征在于,所述边缘计算节点集群中包括至少两个边缘计算节点;所述至少两个边缘计算节点包括边缘计算节点Mi;i为正整数;
所述预测所述目标应用在目标时间段内,针对所述边缘计算节点集群的总变化算力资源信息,包括:
预测所述目标应用在所述目标时间段内针对所述边缘计算节点Mi的新增业务对象、下线业务对象以及场景切换业务对象;
根据所述新增业务对象的新增数量、所述下线业务对象的下线数量以及所述场景切换业务对象的切换数量,确定所述目标应用在所述目标时间段内,针对所述边缘计算节点Mi的节点变化算力资源信息;
当确定出所述目标应用针对所述至少两个边缘计算节点中每个边缘计算节点的节点变化算力资源信息时,将所述至少两个边缘计算节点分别对应的节点变化算力资源信息的总和,确定为所述边缘计算节点集群的总变化算力资源信息。
12.根据权利要求11所述的方法,其特征在于,所述目标应用包括一个或多个应用活动场景;
所述根据所述新增业务对象的新增数量、所述下线业务对象的下线数量以及所述场景切换业务对象的切换数量,确定所述目标应用在所述目标时间段内,针对所述边缘计算节点Mi的节点变化算力资源信息,包括:
预测所述新增业务对象对应的初始登录场景;所述一个或多个应用活动场景包括所述初始登录场景;
将所述下线业务对象在发生下线行为时所处的应用活动场景,确定为下线应用活动场景;
将所述节点场景切换对象在进行场景切换前所处的应用活动场景,确定为初始应用活动场景,将所述场景切换对象在进行场景切换后所处的应用活动场景,确定为目标应用活动场景;
获取所述初始登录场景、所述下线应用活动场景、所述初始应用活动场景、所述目标应用活动场景分别对应的平均算力需求信息,根据所述初始登录场景、所述下线应用活动场景、所述初始应用活动场景、所述目标应用活动场景分别对应的平均算力需求信息,以及所述切换数量、所述下线数量、所述新增数量,确定所述目标应用在所述目标时间段内,针对所述边缘计算节点Mi的节点变化算力资源信息。
13.根据权利要求12所述的方法,其特征在于,所述根据所述初始登录场景、所述下线应用活动场景、所述初始应用活动场景、所述目标应用活动场景分别对应的平均算力需求信息,以及所述切换数量、所述下线数量、所述新增数量,确定所述目标应用在所述目标时间段内,针对所述边缘计算节点Mi的节点变化算力资源信息,包括:
根据所述新增数量与所述初始登录场景对应的平均算力需求信息,确定所述节点新增业务对象对应的第一变化算力资源信息;
根据所述下线数量与所述在线应用活动场景对应的平均算力需求信息,确定所述节点下线业务对象对应的第二变化算力资源信息;
根据所述初始应用活动场景对应的平均算力需求信息、所述目标应用活动场景对应的平均算力需求信息以及所述切换数量,确定所述节点场景切换对象对应的第三变化算力资源信息;
根据所述第一变化算力资源信息、所述第二变化算力资源信息以及所述第三变化算力资源信息确定所述目标应用在所述目标时间段内,针对所述边缘计算节点Mi的节点变化算力资源信息。
14.一种计算机设备,其特征在于,包括:处理器、存储器以及网络接口;
所述处理器与所述存储器、所述网络接口相连,其中,所述网络接口用于提供网络通信功能,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,以使所述计算机设备执行权利要求1-13任一项所述的方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序适于由处理器加载并执行权利要求1-13任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110855816.2A CN113485841A (zh) | 2021-07-28 | 2021-07-28 | 一种基于边缘计算的数据处理方法、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110855816.2A CN113485841A (zh) | 2021-07-28 | 2021-07-28 | 一种基于边缘计算的数据处理方法、设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113485841A true CN113485841A (zh) | 2021-10-08 |
Family
ID=77943245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110855816.2A Pending CN113485841A (zh) | 2021-07-28 | 2021-07-28 | 一种基于边缘计算的数据处理方法、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113485841A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114282661A (zh) * | 2021-12-23 | 2022-04-05 | 安谋科技(中国)有限公司 | 神经网络模型的运行方法、可读介质和电子设备 |
CN114610578A (zh) * | 2022-03-17 | 2022-06-10 | 飞腾信息技术有限公司 | 一种资源状态管理方法、装置、电子设备及存储介质 |
CN114629903A (zh) * | 2022-01-21 | 2022-06-14 | 厦门聚视智创科技有限公司 | 一种采用消费级主机提供大型服务器算力的方法 |
CN116432082A (zh) * | 2023-03-29 | 2023-07-14 | 武汉理工大学 | 一种船舶故障特征分析方法、系统及存储介质 |
CN117854518A (zh) * | 2024-03-05 | 2024-04-09 | 深圳市时代经纬科技有限公司 | 一种WebGPU实现语音编解码及转码的方法和装置 |
-
2021
- 2021-07-28 CN CN202110855816.2A patent/CN113485841A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114282661A (zh) * | 2021-12-23 | 2022-04-05 | 安谋科技(中国)有限公司 | 神经网络模型的运行方法、可读介质和电子设备 |
CN114629903A (zh) * | 2022-01-21 | 2022-06-14 | 厦门聚视智创科技有限公司 | 一种采用消费级主机提供大型服务器算力的方法 |
CN114610578A (zh) * | 2022-03-17 | 2022-06-10 | 飞腾信息技术有限公司 | 一种资源状态管理方法、装置、电子设备及存储介质 |
CN114610578B (zh) * | 2022-03-17 | 2023-12-29 | 飞腾信息技术有限公司 | 一种资源状态管理方法、装置、电子设备及存储介质 |
CN116432082A (zh) * | 2023-03-29 | 2023-07-14 | 武汉理工大学 | 一种船舶故障特征分析方法、系统及存储介质 |
CN116432082B (zh) * | 2023-03-29 | 2024-01-09 | 武汉理工大学 | 一种船舶故障特征分析方法、系统及存储介质 |
CN117854518A (zh) * | 2024-03-05 | 2024-04-09 | 深圳市时代经纬科技有限公司 | 一种WebGPU实现语音编解码及转码的方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023005702A1 (zh) | 基于边缘计算的数据处理方法、装置、设备及存储介质 | |
CN113485841A (zh) | 一种基于边缘计算的数据处理方法、设备及可读存储介质 | |
CN113434294A (zh) | 一种数据处理方法、计算机设备以及可读存储介质 | |
Tang et al. | Online and offline based load balance algorithm in cloud computing | |
CN108810554A (zh) | 虚拟场景的场景图像传输方法、计算机设备及存储介质 | |
Zhang et al. | Towards green metaverse networking: Technologies, advancements and future directions | |
US8887072B2 (en) | Method of managing a set of virtual environment control entities, device, and corresponding computer program product | |
US20220280867A1 (en) | Server load prediction and advanced performance measures | |
CN112488706B (zh) | 一种基于区块链的云服务管理方法及系统 | |
CN113069769B (zh) | 云游戏界面显示方法、装置、电子设备以及存储介质 | |
CN110418153A (zh) | 水印添加方法、装置、设备及存储介质 | |
CN113117326B (zh) | 一种帧率控制方法和装置 | |
WO2022247514A1 (zh) | 游戏数据处理方法及装置、系统、电子设备和存储介质 | |
WO2023077813A1 (zh) | 确定直播间刷量的方法及装置 | |
Jin et al. | An intelligent scheduling algorithm for resource management of cloud platform | |
CN113688305A (zh) | 一种信息处理方法、装置及计算机可读存储介质 | |
CN110084395A (zh) | 网络舆情演化结果的预测方法、装置、服务器及存储介质 | |
CN112764837B (zh) | 数据上报方法、装置、存储介质及终端 | |
CN115002126A (zh) | 一种基于边缘服务器集群的服务调度方法及装置 | |
Jiang et al. | A mirroring architecture for sophisticated mobile games using computation‐offloading | |
CN112654077B (zh) | 节能方法及装置、计算机可存储介质 | |
CN115599533A (zh) | 任务处理方法、装置、设备以及存储介质 | |
Hu | Reactive Prediction Models for Cloud Resource Estimation | |
Li et al. | A cloud computing resource pricing strategy research-based on resource swarm algorithm | |
Gong | Key Technology of Games Based on Artificial Intelligence Technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40052856 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |