CN116458140A - 热感知调度方法和系统 - Google Patents

热感知调度方法和系统 Download PDF

Info

Publication number
CN116458140A
CN116458140A CN202080104888.7A CN202080104888A CN116458140A CN 116458140 A CN116458140 A CN 116458140A CN 202080104888 A CN202080104888 A CN 202080104888A CN 116458140 A CN116458140 A CN 116458140A
Authority
CN
China
Prior art keywords
servers
server
server cluster
modes
assigned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080104888.7A
Other languages
English (en)
Inventor
赵旭
卢毅军
理栈
谭剑
奉有泉
陶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Cloud Computing Ltd
Original Assignee
Alibaba Cloud Computing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Cloud Computing Ltd filed Critical Alibaba Cloud Computing Ltd
Publication of CN116458140A publication Critical patent/CN116458140A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5094Allocation of resources, e.g. of the central processing unit [CPU] where the allocation takes into account power or heat criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/20Cooling means
    • G06F1/206Cooling means comprising thermal management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/28Supervision thereof, e.g. detecting power-supply failure by out of limits supervision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/329Power saving characterised by the action undertaken by task scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

公开了一种基于冷却组件的操作模式的热感知调度方法。调度系统可以接收所要指配给服务器集群的任务,所述服务器集群包括多个服务器。调度系统可以使用对应的操作模式估计模型,至少部分地基于多个服务器的功率和性能状态信息以及服务器集群的环境信息来估计或确定多个服务器的冷却组件的相应操作模式。调度系统然后可以基于相应操作模式从多个服务器中选择服务器,并且将所要指配的任务指配给所选择的服务器。

Description

热感知调度方法和系统
背景技术
任务调度或负载平衡是将多个传入任务分配或指配给多个可用资源(诸如计算单元或进程)的过程,以使得多个可用资源的整体性能能够高效,并且使得多个传入任务能够被及时处理。随着包含大量计算资源并且随时从用户定期地接收大量传入请求或任务的云计算和数据中心基础设施的发展,对于确保云计算和数据中心的成功和高效性能以满足用户的需求和要求,这样的任务调度或负载平衡已经变得重要。
现有的任务调度或负载平衡通常采用这样的策略,即,将传入任务随机地指配给多个可用资源,或者将所述任务指配给当前具有最少工作负载或连接的资源。然而,目前的任务调度或负载平衡策略太简单,并且没有考虑可用资源的物理状况,这不仅可能影响资源的工作状况,而且还可能影响资源的健康状况。
附图说明
参考附图阐述了详细描述。在图中,附图标记的最左边的数字标识该附图标记首次出现的图。在不同的图中使用相同的附图标记指示相似或相同的项。
图1图示了可以使用热感知(thermal-aware)调度系统的示例性环境。
图2更详细地图示了示例性热感知调度系统。
图3更详细地图示了示例性服务器。
图4图示了调度要指配的任务的示例性方法。
图5图示了示例性操作模式估计模型。
具体实施方式
概述
如上所描述的,现有技术在执行任务调度或负载平衡时没有考虑计算资源的物理状况和环境状况,因此无法全面考虑可能影响计算资源的工作状况和健康状况的影响,这可能最终影响计算资源的性能,即,要指配给计算资源的任务的处理效率和及时性。
本公开描述了示例性热感知调度系统。在实现方式中,热感知调度系统可以考虑与云计算或数据中心基础设施中的计算资源(诸如服务器等)的集群相关联的冷却组件(例如,风扇)的操作状况或模式,以对传入任务或请求执行任务调度或负载平衡。在实现方式中,特定类型的冷却组件所消耗的电力取决于冷却组件的一些操作参数。例如,风扇所消耗的电力可能与风扇的速度具有近似的立方关系,并且将风扇附接到服务器并且风扇从该服务器接收电力,风扇所消耗的电力可能占据服务器所消耗的电力的大部分。因此,热感知调度系统可以至少部分地基于对计算资源的冷却组件的操作状况或模式的估计来执行任务调度或负载平衡。
在实现方式中,冷却组件可以存在多种操作模式,并且所述多种操作模式取决于冷却组件的类型和/或冷却组件的制造商的设置。作为示例而非限制的,冷却组件(诸如风扇)的操作模式可以包括至少两种模式,例如第一模式和第二模式(或称为声学模式和性能模式),以节省风扇功率或确保相关联的计算资源(诸如服务器等)在不同情况下的热安全性。例如,与计算资源(诸如服务器)相关联的冷却组件(诸如风扇)的第一模式可以是指这样的操作模式:在该模式中,冷却组件在流入空气温度低的情况下以低速运转,并且与计算资源相关联的冷却组件的第二模式可以是指这样的操作模式:在该模式中,冷却组件以高速运转从而保护计算资源免受由于流入空气(或较热的气流)的高温而导致的热击穿。
在实现方式中,热感知调度系统可以从客户端设备接收要指配的任务。客户端设备可以将所要指配的任务发送到云计算或数据中心基础设施,并且热感知调度系统可以从边缘路由器接收要指配的任务,要指配的任务通过边缘路由器被传输到云计算或数据中心基础设施。
在实现方式中,热感知调度系统可以从数据中心或云计算基础设施中的同一集群的计算资源中收集第一信息,所述第一信息有助于估计与所述计算资源相关联的冷却组件的操作模式,并且热感知调度系统可以从同一集群的计算资源的环境中收集第二信息,所述第二信息有助于估计所述冷却组件的操作模式。
在实现方式中,第一信息可以包括但不限于同一集群的计算资源的相应功耗信息、相应处理器利用率信息以及相应入口温度。在实现方式中,第二信息可以包括但不限于冷却单元的操作状况(诸如容纳计算资源的设施中的空调和/或风扇的设定点等)以及计算资源的环境的周围温度(例如,容纳计算资源的设施的室温)。在实现方式中,所述设施可以包括房间,该房间容纳数据中心或云计算基础设施(诸如计算资源)的至少一部分。
在实现方式中,热感知调度系统可以通过使用相应的操作模式估计模型,至少部分地基于所述第一信息和所述第二信息来估计或预测同一集群的计算资源的操作模式。在实现方式中,热感知调度系统可以基于计算资源的操作模式来从计算资源中选择一计算资源,并且将所要指配的任务指配给所选择的计算资源。
如上所描述的,示例性热感知调度系统能够确定性地或策略性地将针对处理分布式数据库事务的请求从客户端设备指配或重定向到计算节点(所述计算节点包括分布式数据库事务的至少一个查询所涉及的数据表的数据段),从而避免使用控制节点或协调节点,并且因此减少了通信成本和资源浪费。
此外,本文描述的要由热感知调度系统执行的功能可以由多个单独的服务或单元来执行。例如,接收服务可以从客户端设备接收要指配的任务,而收集服务可以从集群的多个计算资源和容纳该集群的环境来收集信息,并且又一估计服务可以估计或预测与多个计算资源相关联的冷却组件的操作模式。此外,选择服务可以基于计算资源的操作模式从多个计算资源中选择一计算资源,并且指配服务可以将所要指配的任务指配给所选择的计算资源。
此外,尽管在本文描述的示例中,热感知调度系统可以被实现为在多个设备中实现并分布的软件和硬件的组合,但是在其他示例中,热感知调度系统可以被实现并分布为通过网络和/或在云计算架构中在一个或多个计算设备中所提供的服务。
本申请描述了多个且不同的实施例和实现方式。以下部分描述了适用于实践各种实现方式的示例性框架。接下来,本申请描述了用于实现热感知调度系统的示例性系统、设备和过程。
示例性环境
图1示出了可用于实现热感知调度系统的示例性环境100。所述环境100可以包括热感知调度系统102和多个服务器104-1、104-2、104-3、104-4、104-6、…、104-N(或者称为多个计算资源),这些服务器统称为服务器104。热感知调度系统102和多个服务器104可以经由网络106相互传送数据。在实现方式中,多个服务器104可以包括或外设有多个冷却组件108-1、108-2、108-3、108-4、108-5、…、108-M,这些冷却组件统称为冷却组件108。冷却组件108可以被配置为对多个服务器104提供冷却效果。
在示例中,热感知调度系统102被描述为单独的实体或设备。在其他实例中,热感知调度系统102可以位于多个服务器104之一中,或者可以位于诸如任务调度服务器110(或者称为负载平衡服务器)这样的专用服务器中。
在实现方式中,环境100还可以包括一个或多个冷却单元112以及一个或多个传感器114。在实现方式中,一个或多个冷却单元112可以包括但不限于空调、风扇等。在实现方式中,除了冷却组件108之外,一个或多个冷却单元112还可以被配置为对多个服务器104提供冷却效果和/或控制多个服务器104的物理环境的周围温度。在实现方式中,多个服务器104的物理环境可以包括诸如数据中心房间等这样的设施,所述设施包含或容纳多个服务器104。在实现方式中,一个或多个传感器114可以被配置为测量多个服务器104的物理环境的周围温度,测量或检测一个或多个冷却单元112的相应设定点或操作状况,等等。
在实现方式中,热感知调度系统102和多个服务器104可以被包含在数据中心或云计算基础设施中,或者被包含在数据中心或云计算基础设施的至少一部分中。换句话说,热感知调度系统102和多个服务器104可以形成数据中心或云的至少一部分。
在实现方式中,多个服务器104可以被划分或分组成多个服务器集群,并且每个服务器集群可以包括多个服务器104(例如,位于同一机架中的服务器、位于同一存储机柜中的服务器、位于同一房间中的服务器等),所述多个服务器104可以在物理上彼此靠近。在实现方式中,数据中心或云计算基础设施可以被物理地划分成多个物理分区,并且每个物理分区可以包括多个服务器104的一部分(即,多个服务器104的服务器集群)。在实现方式中,对于可以被包含在相应物理分区(或相应服务器集群)中的服务器104的数量,每个物理分区(或每个服务器集群)可以具有上限(例如,30个、50个、70个等)。在实现方式中,每个物理分区(或每个服务器集群)的上限可以取决于相应物理分区(或相应服务器集群)中的服务器104的物理配置或布置。作为示例而非限制的,服务器集群可以包括位于同一机架中的服务器,或者位于三个相邻机架中的服务器,或者位于同一存储机柜中的服务器,等等。
在实现方式中,多个服务器104中的每一个可以被实现为各种计算设备中的任何一种,但不限于台式计算机、笔记本或便携式计算机、手持式设备、上网本、网络家电、平板或平板触摸式计算机(slate computer)、移动设备(例如,移动电话、个人数字助理、智能电话等)、服务器计算机等、或者它们的组合。
网络106可以是无线网络或有线网络、或者它们的组合。网络106可以是单独网络的集合,这些单独网络彼此互连并用作单个大型网络(例如,互联网或内联网)。这样的单独网络的示例包括但不限于电话网络、电缆网络、局域网(LAN)、广域网(WAN)和城域网(MAN)。此外,单独网络可以是无线网络或有线网络、或者它们的组合。有线网络可以包括电载波连接(诸如通信电缆等)和/或光载波或连接(诸如光纤连接等)。无线网络可以包括例如WiFi网络、其他射频网络(例如,蓝牙Zigbee等),等等。
在实现方式中,客户端设备可以向数据中心或云(例如,数据中心或云的边缘路由器)发送请求或任务。热感知调度系统102可以从边缘路由器接收请求或任务,并且从多个服务器104中选择一个服务器来处理该请求或任务。在选择服务器之后,热感知调度系统102可以将请求或任务转发给所选择的服务器进行处理。
示例性服务器
图2更详细地图示了服务器104。在实现方式中,服务器104可以包括但不限于一个或多个处理器202、输入/输出(I/O)接口204和/或网络接口206以及存储器208。在实现方式中,服务器104的一些功能可以使用硬件(例如,ASIC(即,专用集成电路)、FPGA(即,现场可编程门阵列)和/或其他硬件)来实现。
在实现方式中,处理器202可以被配置为执行存储在存储器208中的、和/或从I/O接口204接收的、和/或从网络接口206接收的指令。在实现方式中,处理器202可以被实现为一个或多个硬件处理器,包括例如微处理器、专用指令集处理器、物理处理单元(PPU)、中央处理单元(CPU)、图形处理单元、数字信号处理器、张量处理单元等。另外或另选地,本文描述的功能可以至少部分地由一个或多个硬件逻辑组件来执行。例如,但非限制性的,能够使用的硬件逻辑组件的说明性类型包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑器件(CPLD)等。
存储器208可以包括易失性存储器(诸如随机存取存储器(RAM))和/或非易失性存储器(诸如只读存储器(ROM)或闪存RAM)形式的计算机可读介质。存储器208是计算机可读介质的示例。
计算机可读介质可以包括易失性或非易失性类型、可移动或不可移动介质,该计算机可读介质可以使用任何方法或技术来实现信息的存储。信息可以包括计算机可读指令、数据结构、程序模块或其他数据。计算机可读介质的示例包括但不限于相变存储器(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪存储器或其他内部存储技术、光盘只读存储器(CD-ROM)、数字通用光盘(DVD)或其他光存储器、盒式磁带、磁盘存储器或其他磁存储设备,或者任何其他非传输介质,它们可以用于存储可以被计算设备访问的信息。如本文所限定的,计算机可读介质不包括任何暂时性介质,诸如调制数据信号和载波。
尽管在该示例中,在服务器104中仅描述了硬件组件,但是在其他实例中,服务器104还可以包括其他硬件组件和/或其他软件组件,诸如用于执行存储在存储器208中的指令以执行各种操作的程序单元,以及存储应用数据和由服务器104处理的任务的数据的程序数据210。在实现方式中,服务器104可以包括系统接口和/或平台管理接口212,系统接口和/或平台管理接口212能够被热感知调度系统102调用或激活,以向热感知调度系统102提供信息。在实现方式中,服务器104可以包含或外设有一个或多个冷却组件(诸如图1所示的冷却组件108)。
示例性热感知调度系统
图3更详细地图示了热感知调度系统102。在实现方式中,热感知调度系统102可以包括但不限于一个或多个处理器302、输入/输出(I/O)接口304、和/或网络接口306以及存储器308。在实现方式中,热感知调度系统102的一些功能可以使用硬件(例如,ASIC(即,专用集成电路)、FPGA(即,现场可编程门阵列)和/或其他硬件)来实现。在该示例中,热感知调度系统102被描述为作为独立实体或设备存在。在其他实例中,热感知调度系统102可以被包含在或位于多个服务器104中的任何服务器中,或者可以被包含在或位于专用服务器(诸如任务调度服务器110(或称为负载平衡服务器))中。
在实现方式中,处理器302可以被配置为执行存储在存储器308中的、和/或从I/O接口304接收的、和/或从网络接口306接收的指令。在实现方式中,处理器302可以被实现为一个或多个硬件处理器,包括例如微处理器、专用指令集处理器、物理处理单元(PPU)、中央处理单元(CPU)、图形处理单元、数字信号处理器、张量处理单元等。另外或另选地,本文描述的功能能够至少部分地由一个或多个硬件逻辑组件来执行。例如,但非限制性的,能够使用的硬件逻辑组件的说明性类型包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑器件(CPLD)等。
存储器308可以包括易失性存储器(诸如随机存取存储器(RAM))和/或非易失性存储器(诸如只读存储器(ROM)或闪存RAM)形式的计算机可读介质。存储器308是如在前面的描述中所描述的计算机可读介质的示例。
尽管在该示例中,在热感知调度系统102中仅描述了硬件组件,但是在其他实例中,热感知调度系统102还可以包括其他硬件组件和/或其他软件组件,诸如用于执行存储在存储器308中的指令以执行各种操作的程序单元、以及其他程序数据310。作为示例而非限制的,热感知调度系统102还可以包括接收模块312、数据收集模块314、操作模式估计模块316和调度模块318。在实现方式中,热感知调度系统102还可以包括模型数据库320,所述模型数据库320被配置来存储操作模式估计模型,所述操作模式估计模型是数据中心或云计算基础设施中的多个服务器104的冷却组件108的操作模式估计模型。
在实现方式中,热感知调度系统102可以包括任务调度或负载平衡策略,该任务调度或负载平衡策略基于数据中心或云基础设施中的服务器集群的多个服务器104的冷却组件的操作模式,这将在后续部分中详细地描述。
另外,热感知调度系统102还可以包括一个或多个预定任务调度策略或负载平衡策略。作为示例而非限制的,一个或多个预定任务调度策略或负载平衡策略可以包括以随机方式将请求或任务(例如,客户端设备接收的任务)指配给服务器,以循环方式将请求或任务指配给服务器,将请求或任务指配给当前具有最小工作负载的服务器,基于客户端设备的IP地址与服务器的IP地址之间的映射关系将请求或任务指配给服务器,等等。
示例性方法
图4示出了描绘示例性方法的示意图,图4图示了调度要指配的任务的示例性方法。图4的方法可以但不是必须在图1的环境中并使用图2和图3的服务器和热感知调度系统来实现。为了便于解释,参考图1至图3来描述方法400。然而,方法400可以另选地在其他环境中和/或使用其他系统来实现。
方法400是在计算机可执行指令的一般情况中描述的。通常,计算机可执行指令能够包括执行特定功能或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、过程、模块、函数等。此外,示例性方法中的每一种被图示为逻辑流程图中的框的集合,该逻辑流程图表示能够在硬件、软件、固件或其组合中实现的一系列操作。描述该方法的顺序不旨在被解释为限制,并且任何数量的所描述的方法框能够以任何顺序进行组合,以实现该方法或替代方法。另外,在不脱离本文描述的主题的精神和范围的情况下,可以从该方法中省略各个框。在软件的情况下,框表示计算机指令,当该计算机指令由一个或多个处理器执行时,该计算机指令执行所列举的操作。在硬件的情况下,这些框中的一些或全部可以表示执行所列举的操作的专用集成电路(ASIC)或其他物理组件。
返回参考图4,在框402处,热感知调度系统102可以接收要指配的请求或任务。
在实现方式中,客户端设备可以例如经由云计算或数据中心基础设施的边缘路由器将所要指配的请求或任务发送到云计算或数据中心基础设施。热感知调度系统102(或接收模块312)可以通过网络106从边缘路由器接收要指配的请求或任务。
在框404处,热感知调度系统102可以收集数据中心或云中的服务器集群的多个服务器的功率和性能状态信息、以及服务器集群的环境信息。
在实现方式中,热感知调度系统102(或数据收集模块314)可以收集云计算或数据中心基础设施的服务器集群中的多个服务器的功率和性能状态信息、以及服务器集群的环境信息。在实现方式中,热感知调度系统102(或数据收集模块314)可以在接收要指配的请求或任务之前或之后收集这些信息。在实现方式中,热感知调度系统102(或数据收集模块314)可以定期地(例如,在预定时间间隔之后(诸如每一毫秒、每秒等之后))收集这些信息。在实现方式中,预定时间间隔的实际时间长度可以取决于一个或多个因素,所述一个或多个因素包括但不限于每秒接收到的请求或任务的数量、当日时间、服务器集群中的服务器的数量等。在实现方式中,热感知调度系统102(或数据收集模块314)可以包括专用硬件和/或软件部件以连续地收集这些信息。
在实现方式中,热感知调度系统102(或数据收集模块314)可以通过以下操作来收集云计算或数据中心基础设施的服务器集群中的多个服务器的功率和性能状态信息:主动调用或激活平台管理接口或者多个服务器的相应系统接口以从多个服务器获得所述多个服务器的功率和性能状态信息。在实现方式中,平台管理接口可以包括例如IPMI(智能平台管理接口),IPMI是基于硬件的平台管理系统的一组标准化规范,以使得能够集中控制并监控服务器。作为示例而非限制的,IPMI的功能可以包括例如监控硬件状态(其包括但不限于温度、功耗、电压等)、日志服务器数据,并且即使在服务器的操作系统没有安装或出现故障时也允许访问服务器,等等。
在实现方式中,热感知调度系统102(或数据收集模块314)可以通过一种或多种通信协议从冷却单元112和一个或多个传感器114收集服务器集群的环境信息。通信协议是允许通信系统的多个实体经由任何种类的物理量变化来传输信息的规则体系。取决于冷却单元112和传感器114的能力和复杂度,一种或多种通信协议可以包括但不限于Modbus(其是源自于主/从架构的开放串行协议)、TCP(传输控制协议)、UDP(用户数据报协议)等。另外,热感知调度系统102(或数据收集模块314)可以通过IPC(工业个人计算机)从冷却单元112和一个或多个传感器114收集服务器集群的环境信息,该IPC是旨在用于工业目的(诸如生产产品和服务)的计算机,其具有上网机与服务器机架之间的形状因子。另外,热感知调度系统102(或数据收集模块314)可以通过工业交换器和/或具有硬件接口的任何设备(例如,诸如RS485/232适配器或RJ45电缆这样的串行数据通信电缆等)从冷却单元112和一个或多个传感器114收集服务器集群的环境信息,所述硬件接口被配置为或使得能够连接到冷却单元112和一个或多个传感器114,以从冷却单元112和一个或多个传感器114收集信息等。
在实现方式中,多个服务器的功率和性能信息可以包括但不限于服务器集群中的多个服务器的相应功耗信息、相应处理器利用率信息以及相应入口温度。另外,多个服务器的功率和性能信息可以包括服务器集群中的多个服务器的相应内存利用率信息和相应输入/输出带宽信息。在实现方式中,服务器集群的环境信息可以包括但不限于冷却单元的操作状况以及服务器集群的环境的周围温度。在实现方式中,冷却单元的操作状况可以包括例如冷却单元是打开还是关闭、冷却单元的温度设置、冷却单元的操作强度(诸如高速、中速或低速等),等等。
在框406处,热感知调度系统102可以使用对应的操作模式估计模型,至少部分地基于多个服务器的功率和性能状态信息以及服务器集群的环境信息来估计或预测多个服务器的冷却组件的相应操作模式。
在实现方式中,在收集多个服务器的功率和性能状态信息以及服务器集群的环境信息之前或之后,热感知调度系统102(或操作模式估计模块316)可以为多个服务器或多个服务器的冷却组件检索对应的操作模式估计模型。在实现方式中,热感知调度系统102(或操作模式估计模块316)可以从模型数据库320中检索对应的操作模式估计模型。在实现方式中,每个冷却组件可以具有对应的操作模式估计模型,用于预测或估计相应冷却组件的操作模式。在实现方式中,每个冷却组件与对应的操作模式估计模型之间存在一一对应关系。
如前面的描述中所描述的,同一服务器集群中的服务器在物理上彼此靠近,并且因此由服务器集群中的服务器散发或产生的热量可能容易对彼此产生热效应(例如,增加服务器集群中的服务器周围的温度),并因此可能相互影响与服务器相关联的冷却组件的操作模式。在实现方式中,热感知调度系统102可以使用多个服务器的冷却组件的对应的操作模式估计模型,至少部分地基于服务器集群中的多个服务器的功率和性能状态信息以及服务器集群的环境信息来估计或预测多个服务器的冷却组件的相应操作模式。在实现方式中,冷却组件(例如,服务器集群内的多个服务器的冷却组件之一)可以与操作模式估计模型相关联,该操作模式估计模型可以将服务器集群内的多个服务器的功率和性能状态信息以及服务器集群的环境信息作为输入,并且产生与冷却组件正在或将要在不同操作模式下操作的可能性或概率相关的输出。在实现方式中,与服务器集群中的冷却组件相关联的操作模式估计模型可以不获取不属于同一服务器集群(其中包括有与冷却组件相关联的服务器)的服务器的信息(诸如功率和性能状态信息等)。
例如,服务器集群可以包括10个服务器,并且每个服务器可以包含或外设有一个冷却组件(诸如风扇等)。对于这10个冷却组件中的每个冷却组件,与该冷却组件对应的操作模式估计模型可以将该服务器集群内的10个服务器的功率和性能状态信息以及该服务器集群的环境信息作为输入,并且产生与该冷却组件正在或将要在不同操作模式下操作的可能性或概率相关的输出(例如,对于N种不同的操作模式,操作模式估计模型产生N个输出,对于每种操作模式产生一个输出)。在实现方式中,不同的冷却组件可以具有不同或相同数量的操作模式。例如,第一冷却组件可以具有2种不同的操作模式,而第二冷却组件可以具有3种不同的操作模式。在实现方式中,每个冷却组件的不同操作模式的数量可以取决于相应冷却组件的类型、由其制造商配置的相应冷却组件的设置等。
在实现方式中,操作模式估计模型可以包括但不限于神经网络模型(例如,深度神经网络模型、反向传播神经网络模型等)、决策树模型等。在实现方式中,在可以使用操作模式估计模型之前,热感知调度系统102可以使用历史输入和输出数据来训练并测试每个操作模式估计模型。作为示例而非限制的,服务器集群中的特定服务器的冷却组件的操作模式估计模型的历史输入数据可以包括但不限于包括该特定服务器的服务器集群中的每个服务器的历史功率和性能状态信息以及该服务器集群的历史环境信息,而服务器集群中的该特定服务器的冷却组件的操作模式估计模型的历史输出数据可以包括冷却组件正在或将要在L种不同操作模式下操作的可能性或概率的对应的标记输出,其中L是大于或等于2的整数。在实现方式中,对应的标记输出可以由用户预先手动获得或标记。
作为示例而非限制的,图5示出了示例性操作模式估计模型。在该示例中,包括多个服务器的服务器集群中的服务器中所包含的或外设的冷却组件的操作模式估计模型被描述为神经网络模型500,诸如深度神经网络模型。在实现方式中,神经网络模型500可以包括输入层502、多个隐藏层504-1、504-2、…、504-K(其中,K是大于或等于2的整数)、以及输出层506。在实现方式中,输入层502可以将服务器集群中的多个服务器的历史功率和性能状态信息以及服务器集群的历史环境信息作为输入,并且产生冷却组件正在或将要在不同操作模式下操作的可能性或概率作为输出。在实现方式中,热感知调度系统102可以使用如上所描述的历史输入和输出数据,通过常规的监督学习方法来训练并测试服务器集群中的服务器中所包含的或外设的冷却组件的操作模式估计模型。
在框408处,热感知调度系统102可以基于多个服务器的冷却组件的相应操作模式从多个服务器中选择服务器。
在实现方式中,在确定或估计多个服务器的冷却组件的相应操作模式之后,热感知调度系统102(或调度模块318)可以确定或选择一个或多个服务器作为一个或多个候选服务器,用于指配要从多个服务器指配的请求或任务。在实现方式中,每个冷却组件可以在多种不同的操作模式(例如,N种不同的操作模式,其中N是等于2或更大的正整数)下操作。在实现方式中,每个冷却组件的多种不同操作模式可以包括不同功耗水平的操作模式(即,当在不同操作模式下操作时,相应冷却组件消耗不同量的电力)。
在实现方式中,由热感知调度系统102(或调度模块318)选择的一个或多个服务器可以包括具有在被估计的冷却组件的相应操作模式当中消耗最少量的电力的相应操作模式的一个或多个服务器(即,具有被估计的冷却组件的相应操作模式当中的与最低功耗水平相对应的相应操作模式的一个或多个服务器)。在实现方式中,热感知调度系统102(或调度模块318)可以将具有最低入口温度的服务器设置为从一个或多个候选服务器中所选择的服务器。
在框410处,热感知调度系统102可以将所要指配的请求或任务指配给所选择的服务器。
在实现方式中,在获得所选择的服务器之后,热感知调度系统102(或调度模块318)可以将所要指配的请求或任务指配给所选择的服务器。例如,热感知调度系统102(或调度模块318)可以包括分别与多个服务器相关联的多个作业队列(即,多个作业队列和多个服务器具有一一对应关系)。热感知调度系统102(或调度模块318)可以将所要指配的请求或任务放置在与所选择的服务器相关联的作业队列中,并且以先进先出的方式将所要指配的任务从作业队列中发送给所选择的服务器。另外或另选地,在获得所选择的服务器之后,热感知调度系统102(或调度模块318)可以将所要指配的任务发送给所选择的服务器,所选择的服务器包括作业队列以接收被指配给所选择的服务器的请求或任务。
在实现方式中,在将所要指配的请求或任务指配给所选择的服务器之后,热感知调度系统102可以继续执行框402-410的以上操作,以针对接收到的附加请求或任务执行任务调度或负载平衡,或者等待新的请求或任务以执行任务调度或负载平衡。
尽管在该示例性方法中,数据中心或云计算基础设施被描述为在物理上被划分成多个物理分区(一个物理分区对应于一个服务器集群),但是在一些实例中,数据中心或云计算基础设施可以在逻辑上被划分成多个逻辑分区,每个逻辑分区与多个服务器104中的一个相关联。
作为示例而非限制的,与多个服务器104中的一个服务器104(例如,第一服务器104,仅出于区分和便于描述的目的)相关联的逻辑分区可以包括位于该服务器104的预定距离范围内(诸如距第一服务器一米、两米等内)的多个服务器104(例如,第二服务器104,仅出于区分和便于描述的目的)。所有这些第二服务器104和第一服务器104可以形成专用于第一服务器104的服务器集群。这些第二服务器104和第一服务器的信息(诸如功率和性能状态信息)然后可以被用于确定与第一服务器相关联的冷却组件的操作模式估计模型,并且估计或预测如前面的描述中所描述的与第一服务器相关联的冷却组件的操作模式。换句话说,热感知调度系统102可以具有移动窗口来收集与每个服务器相对应的服务器集群内的服务器的信息(诸如功率和性能状态信息),以用于为与相应服务器相关联的冷却组件确定对应的操作模式估计模型,并且估计或预测与相应服务器相关联的冷却组件的操作模式。
本文描述的任何方法的任何动作都可以至少部分地由处理器或其他电子设备基于存储在一种或多种计算机可读介质上的指令来实现。作为示例而非限制的,本文描述的任何方法的任何动作都可以在一个或多个处理器的控制下实现,该一个或多个处理器被配置有可以存储在一种或多种计算机可读介质上的可执行指令。
结论
尽管已经用特定于结构特征和/或方法动作的语言描述了实现方式,但是应该理解,权利要求不必限于所描述的特定特征或动作。相反,这些特定特征和动作是作为实现所要求保护的主题的示例性形式被公开的。另外或另选地,操作中的一些或全部可以由一个或多个ASIC、FPGA或其他硬件来实现。
使用以下条项能够进一步理解本公开。
条项1:一种由一个或多个计算设备实现的方法,所述方法包括:接收所要指配给服务器集群的任务,所述服务器集群包括多个服务器;使用对应的操作模式估计模型,至少部分地基于所述多个服务器的功率和性能状态信息以及所述服务器集群的环境信息来估计所述多个服务器的冷却组件的相应操作模式;基于所述多个服务器的所述冷却组件的所述相应操作模式,从所述多个服务器中选择服务器;以及将所要指配的所述任务指配给所选择的服务器。
条项2:根据条项1所述的方法,还包括:收集所述服务器集群中的所述多个服务器的所述功率和性能状态信息、以及所述服务器集群的所述环境信息。
条项3:根据条项1所述的方法,其中,所述多个服务器的所述功率和性能信息包括以下项中的至少一项:所述多个服务器的相应功耗信息、相应处理器利用率信息以及相应入口温度。
条项4:根据条项1所述的方法,其中,所述服务器集群的所述环境信息包括以下项中的至少一项:容纳所述服务器集群的数据中心设施中的冷却单元的操作状况,以及所述服务器集群的环境的周围温度。
条项5:根据条项1所述的方法,还包括:基于深度学习算法来训练所述对应的操作模式估计模型。
条项6:根据条项1所述的方法,其中,所述多个服务器的所述相应操作模式与所述对应的操作模式估计模型一一对应。
条项7:根据条项6所述的方法,其中,使用所述对应的操作模式估计模型,至少部分地基于所述多个服务器的所述功率和性能状态信息以及所述服务器集群的所述环境信息来估计所述多个服务器的所述冷却组件的所述相应操作模式,包括:将所述功率和性能状态信息以及所述服务器集群的所述环境信息提供给所述对应的操作模式估计模型中的每个对应的操作模式估计模型,以确定所述多个服务器的所述冷却组件的所述相应操作模式的可能性。
条项8:根据条项1所述的方法,其中,冷却组件的操作模式对应于所述冷却组件的多种不同操作模式中的一种,所述多种不同操作模式具有不同功耗水平。
条项9:根据条项1所述的方法,其中,基于所述多个服务器的所述冷却组件的所述相应操作模式从所述多个服务器中选择服务器,包括:基于所述多个服务器的所述冷却组件的所述相应操作模式,从所述多个服务器中确定具有与最低功耗水平相对应的相应操作模式的一个或多个服务器;以及将具有最低入口温度的服务器设置为从所述一个或多个服务器中所选择的服务器。
条项10:根据条项1所述的方法,还包括:将所要指配的所述任务放置在与所选择的服务器相关联的作业队列中;以及以先进先出的方式将所要指配的所述任务从所述作业队列发送到所选择的服务器。
条项11:一种或多种计算机可读介质,所述一种或多种计算机可读介质存储有可执行指令,当所述可执行指令被一个或多个处理器执行时,所述可执行指令使所述一个或多个处理器执行动作,所述动作包括:接收所要指配给服务器集群的任务,所述服务器集群包括多个服务器;使用对应的操作模式估计模型,至少部分地基于所述多个服务器的功率和性能状态信息以及所述服务器集群的环境信息来估计所述多个服务器的冷却组件的相应操作模式;基于所述相应操作模式,从所述多个服务器中选择服务器;以及将所要指配的所述任务指配给所选择的服务器。
条项12:根据条项11所述的一种或多种计算机可读介质,所述动作还包括:收集所述服务器集群中的所述多个服务器的所述功率和性能状态信息、以及所述服务器集群的所述环境信息。
条项13:根据条项11所述的一种或多种计算机可读介质,其中,所述多个服务器的所述功率和性能信息包括以下项中的至少一项:所述多个服务器的相应功耗信息、相应处理器利用率信息以及相应入口温度,并且所述服务器集群的所述环境信息包括以下项中的至少一项:容纳所述服务器集群的数据中心设施中的冷却单元的操作状况、以及所述服务器集群的环境的周围温度。
条项14:根据条项11所述的一种或多种计算机可读介质,所述动作还包括:基于深度学习算法来训练所述对应的操作模式估计模型。
条项15:根据条项11所述的一种或多种计算机可读介质,其中,所述多个服务器的所述冷却组件的所述相应操作模式与所述对应的操作模式估计模型一一对应,并且其中,使用所述对应的操作模式估计模型,至少部分地基于所述多个服务器的所述功率和性能状态信息以及所述服务器集群的所述环境信息来估计所述多个服务器的所述冷却组件的所述相应操作模式包括:将所述功率和性能状态信息以及所述服务器集群的所述环境信息提供给所述对应的操作模式估计模型中的每个对应的操作模式估计模型,以确定所述多个服务器的所述相应操作模式的可能性。
条项16:根据条项11所述的一种或多种计算机可读介质,其中,特定服务器的操作模式对应于所述冷却组件的多种不同操作模式中的一种,所述多种不同操作模式具有不同功耗水平。
条项17:根据条项11所述的一种或多种计算机可读介质,其中,基于所述多个服务器的所述冷却组件的所述相应操作模式从所述多个服务器中选择服务器,包括:基于所述多个服务器的所述冷却组件的所述相应操作模式,从所述多个服务器中确定具有与最低功耗水平相对应的相应风扇模式的一个或多个服务器;以及将具有最低入口温度的服务器设置为从所述一个或多个服务器中所选择的服务器。
条项18:根据条项11所述的一种或多种计算机可读介质,其中,所述动作还包括:将所要指配的所述任务放置在与所选择的服务器相关联的作业队列中;以及以先进先出的方式将所要指配的所述任务从所述作业队列发送到所选择的服务器。
条项19:一种系统,包括:一个或多个处理器;以及存储器,所述存储器存储有可执行指令,当所述可执行指令被所述一个或多个处理器执行时,所述可执行指令使所述一个或多个处理器执行动作,所述动作包括:接收所要指配给服务器集群的任务,所述服务器集群包括多个服务器;使用对应的操作模式估计模型,至少部分地基于所述多个服务器的功率和性能状态信息以及所述服务器集群的环境信息来估计所述多个服务器的冷却组件的相应操作模式;基于所述相应操作模式,从所述多个服务器中选择服务器;以及将所要指配的所述任务指配给所选择的服务器。
条项20:根据条项19所述的系统,所述动作还包括:收集所述服务器集群中的所述多个服务器的所述功率和性能状态信息、以及所述服务器集群的所述环境信息。

Claims (20)

1.一种由一个或多个计算设备实现的方法,所述方法包括:
接收所要指配给服务器集群的任务,所述服务器集群包括多个服务器;
使用对应的操作模式估计模型,至少部分地基于所述多个服务器的功率和性能状态信息以及所述服务器集群的环境信息来估计所述多个服务器的冷却组件的相应操作模式;
基于所述多个服务器的所述冷却组件的所述相应操作模式,从所述多个服务器中选择服务器;以及
将所要指配的所述任务指配给所选择的服务器。
2.根据权利要求1所述的方法,还包括:收集所述服务器集群中的所述多个服务器的所述功率和性能状态信息、以及所述服务器集群的所述环境信息。
3.根据权利要求1所述的方法,其中,所述多个服务器的所述功率和性能信息包括以下项中的至少一项:所述多个服务器的相应功耗信息、相应处理器利用率信息以及相应入口温度。
4.根据权利要求1所述的方法,其中,所述服务器集群的所述环境信息包括以下项中的至少一项:容纳所述服务器集群的数据中心设施中的冷却单元的操作状况,以及所述服务器集群的环境的周围温度。
5.根据权利要求1所述的方法,还包括:基于深度学习算法来训练所述对应的操作模式估计模型。
6.根据权利要求1所述的方法,其中,所述多个服务器的冷却组件的所述相应操作模式与所述对应的操作模式估计模型一一对应。
7.根据权利要求6所述的方法,其中,使用所述对应的操作模式估计模型,至少部分地基于所述多个服务器的所述功率和性能状态信息以及所述服务器集群的所述环境信息来估计所述多个服务器的所述冷却组件的所述相应操作模式,包括:
将所述功率和性能状态信息以及所述服务器集群的所述环境信息提供给所述对应的操作模式估计模型中的每个对应的操作模式估计模型,以确定所述多个服务器的所述冷却组件的所述相应操作模式的可能性。
8.根据权利要求1所述的方法,其中,冷却组件的操作模式对应于所述冷却组件的多种不同操作模式中的一种,所述多种不同操作模式具有不同功耗水平。
9.根据权利要求1所述的方法,其中,基于所述相应操作模式从所述多个服务器中选择服务器,包括:
基于所述相应操作模式,从所述多个服务器中确定具有与最低功耗水平相对应的相应操作模式的一个或多个服务器;以及
将具有最低入口温度的服务器设置为从所述一个或多个服务器中所选择的服务器。
10.根据权利要求1所述的方法,还包括:
将所要指配的所述任务放置在与所选择的服务器相关联的作业队列中;以及
以先进先出的方式将所要指配的所述任务从所述作业队列发送到所选择的服务器。
11.一种或多种计算机可读介质,所述一种或多种计算机可读介质存储有可执行指令,当所述可执行指令被一个或多个处理器执行时,所述可执行指令使所述一个或多个处理器执行动作,所述动作包括:
接收所要指配给服务器集群的任务,所述服务器集群包括多个服务器;
使用对应的操作模式估计模型,至少部分地基于所述多个服务器的功率和性能状态信息以及所述服务器集群的环境信息来估计所述多个服务器的冷却组件的相应操作模式;
基于所述多个服务器的所述冷却组件的所述相应操作模式,从所述多个服务器中选择服务器;以及
将所要指配的所述任务指配给所选择的服务器。
12.根据权利要求11所述的一种或多种计算机可读介质,所述动作还包括:收集所述服务器集群中的所述多个服务器的所述功率和性能状态信息、以及所述服务器集群的所述环境信息。
13.根据权利要求11所述的一种或多种计算机可读介质,其中,所述多个服务器的所述功率和性能信息包括以下项中的至少一项:所述多个服务器的相应功耗信息、相应处理器利用率信息以及相应入口温度,并且所述服务器集群的所述环境信息包括以下项中的至少一项:容纳所述服务器集群的数据中心设施中的冷却单元的操作状况、所述服务器集群的环境的周围温度以及所述服务器集群的环境的周围温度。
14.根据权利要求11所述的一种或多种计算机可读介质,所述动作还包括:基于深度学习算法来训练所述对应的操作模式估计模型。
15.根据权利要求11所述的一种或多种计算机可读介质,其中,所述多个服务器的所述冷却组件的所述相应操作模式与所述对应的操作模式估计模型一一对应,并且其中,使用所述对应的操作模式估计模型,至少部分地基于所述多个服务器的所述功率和性能状态信息以及所述服务器集群的所述环境信息来估计所述多个服务器的所述冷却组件的所述相应操作模式包括:
将所述功率和性能状态信息以及所述服务器集群的所述环境信息提供给所述对应的操作模式估计模型中的每个对应的操作模式估计模型,以确定所述多个服务器的所述相应操作模式的可能性。
16.根据权利要求11所述的一种或多种计算机可读介质,其中,冷却组件的操作模式对应于所述冷却组件的多种不同操作模式中的一种,所述多种不同操作模式具有不同功耗水平。
17.根据权利要求11所述的一种或多种计算机可读介质,其中,基于所述多个服务器的所述冷却组件的所述相应操作模式从所述多个服务器中选择服务器,包括:
基于所述多个服务器的所述冷却组件的所述相应操作模式,从所述多个服务器中确定具有与最低功耗水平相对应的相应操作模式的一个或多个服务器;以及
将具有最低入口温度的服务器设置为从所述一个或多个服务器中所选择的服务器。
18.根据权利要求11所述的一种或多种计算机可读介质,其中,所述动作还包括:
将所要指配的所述任务放置在与所选择的服务器相关联的作业队列中;以及
以先进先出的方式将所要指配的所述任务从所述作业队列发送到所选择的服务器。
19.一种系统,包括:
一个或多个处理器;以及
存储器,所述存储器存储有可执行指令,当所述可执行指令被所述一个或多个处理器执行时,所述可执行指令使所述一个或多个处理器执行动作,所述动作包括:
接收所要指配给服务器集群的任务,所述服务器集群包括多个服务器;
使用对应的操作模式估计模型,至少部分地基于所述多个服务器的功率和性能状态信息以及所述服务器集群的环境信息来估计所述多个服务器的冷却组件的相应操作模式;
基于所述多个服务器的所述冷却组件的所述相应操作模式,从所述多个服务器中选择服务器;以及
将所要指配的所述任务指配给所选择的服务器。
20.根据权利要求19所述的系统,所述动作还包括:收集所述服务器集群中的所述多个服务器的所述功率和性能状态信息、以及所述服务器集群的所述环境信息。
CN202080104888.7A 2020-07-30 2020-07-30 热感知调度方法和系统 Pending CN116458140A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2020/105938 WO2022021240A1 (en) 2020-07-30 2020-07-30 Thermal-aware scheduling method and system

Publications (1)

Publication Number Publication Date
CN116458140A true CN116458140A (zh) 2023-07-18

Family

ID=80037415

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080104888.7A Pending CN116458140A (zh) 2020-07-30 2020-07-30 热感知调度方法和系统

Country Status (2)

Country Link
CN (1) CN116458140A (zh)
WO (1) WO2022021240A1 (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6964539B2 (en) * 2002-03-18 2005-11-15 International Business Machines Corporation Method for managing power consumption of multiple computer servers
US9778718B2 (en) * 2009-02-13 2017-10-03 Schneider Electric It Corporation Power supply and data center control
US8793365B2 (en) * 2009-03-04 2014-07-29 International Business Machines Corporation Environmental and computing cost reduction with improved reliability in workload assignment to distributed computing nodes
JP5801732B2 (ja) * 2012-01-24 2015-10-28 株式会社日立製作所 情報処理システムの運用管理方法
TWI597602B (zh) * 2013-08-15 2017-09-01 Chunghwa Telecom Co Ltd Server Room Energy Saving Method Based on Server Resource Load and Location Awareness

Also Published As

Publication number Publication date
WO2022021240A1 (en) 2022-02-03

Similar Documents

Publication Publication Date Title
Xia et al. Phone2Cloud: Exploiting computation offloading for energy saving on smartphones in mobile cloud computing
Ilager et al. Thermal prediction for efficient energy management of clouds using machine learning
Kristiani et al. The implementation of a cloud-edge computing architecture using OpenStack and Kubernetes for air quality monitoring application
Wang et al. Towards thermal aware workload scheduling in a data center
Mirmohseni et al. Using Markov learning utilization model for resource allocation in cloud of thing network
Jiang et al. An edge computing platform for intelligent operational monitoring in internet data centers
EP3465966B1 (en) A node of a network and a method of operating the same for resource distribution
Mohammed et al. Green energy sources: issues and challenges
Zhou et al. Goldilocks: Adaptive resource provisioning in containerized data centers
Li et al. Using energy-aware scheduling weather forecast based harvesting for reconfigurable hardware
Patel et al. Smart dashboard: A novel approach for sustainable development of smart cities using fog computing
Kim et al. Reliable smart energy IoT-cloud service operation with container orchestration
CN116458140A (zh) 热感知调度方法和系统
Gill et al. Sustainable cloud computing realization for different applications: a manifesto
Kanagaraj et al. Uniform distribution elephant herding optimization (UDEHO) based virtual machine consolidation for energy-efficient cloud data centres
Choudhury et al. An energy efficient fog level resource management scheme for software defined cities
Nadalizadeh et al. GreenPacker: renewable-and fragmentation-aware VM placement for geographically distributed green data centers
Hussain et al. Fog assisted cloud models for smart grid architectures-comparison study and optimal deployment
Alhaizaey et al. Optimizing task allocation for edge micro-clusters in smart cities
De Chiara et al. Data mining for big dataset-related thermal analysis of high performance computing (HPC) data center
Rudra et al. Models and algorithms for energy conservation in internet of things
Asif et al. Containerization: For over-the-air programming of field deployed internet-of-energy based on cost effective lpwan
Pereira et al. A microscope for the data centre
Modukari et al. Autonomous middleware framework for sensor networks
Pagán Ortiz et al. A Cyber-Physical approach to combined HW-SW monitoring for improving energy efficiency in data centers

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination