CN110196770A - 云系统内存数据处理方法、装置、设备及存储介质 - Google Patents

云系统内存数据处理方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN110196770A
CN110196770A CN201810771227.4A CN201810771227A CN110196770A CN 110196770 A CN110196770 A CN 110196770A CN 201810771227 A CN201810771227 A CN 201810771227A CN 110196770 A CN110196770 A CN 110196770A
Authority
CN
China
Prior art keywords
data
memory
virtual machine
memory headroom
unloading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810771227.4A
Other languages
English (en)
Other versions
CN110196770B (zh
Inventor
王佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Tencent Cloud Computing Beijing Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Tencent Cloud Computing Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd, Tencent Cloud Computing Beijing Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201810771227.4A priority Critical patent/CN110196770B/zh
Publication of CN110196770A publication Critical patent/CN110196770A/zh
Application granted granted Critical
Publication of CN110196770B publication Critical patent/CN110196770B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45583Memory management, e.g. access or allocation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种云系统内存数据处理方法、装置、设备及存储介质,其中方法包括:检测第一虚拟机内存中各数据当前是否满足转存条件;将满足转存条件的第一数据,转存至预设的存储区,以使第一数据所在内存空间处于空闲状态;获取待缓存的第二数据;将第二数据写入内存空间。该方法实现了通过利用预设的存储区对虚拟机内存资源进行扩容,以当虚拟机内存中存在满足转存条件的数据时,可将满足转存数据转存至预设的存储区,使得虚拟机可以有足够的内存资源进行其他的处理操作,以减少虚拟机上闲置的内存资源,不仅提高了云系统中内存资源的利用率,并且还能满足虚拟机内存资源的使用需求,有效改善了用户的使用体验。

Description

云系统内存数据处理方法、装置、设备及存储介质
技术领域
本申请涉及计算机技术领域,特别涉及一种云系统内存数据处理方法、装置、设备及存储介质。
背景技术
随着云计算的快速发展,虚拟化(Virtualization)技术的应用也得到了迅速发展。作为一种资源管理技术,虚拟化技术将计算机设备的各种实体资源,如服务器、网络、内存及存储等,予以抽象、转换后呈现出来,打破实体结构间的不可切割的障碍,使用户可以比原本的组态更好的方式来应用这些资源,并且这些虚拟化资源不受现有资源的架设方式、地域或物理组态的限制。
在虚拟化环境下,同一宿主机上的所有虚拟机共享内存资源,但是各个虚拟机在运行时的负载各不相同,使得各个虚拟机对内存资源的需求也有所不同。因此,为了提高内存资源的利用率,可以根据虚拟机对内存资源的实际需求分配相应数据的内存资源,对虚拟机的实际运行具有重要意义。
在相关技术中,对虚拟机的资源分配可通过以下方式实现,方式一:根据需求动态变更虚拟机资源的分配数量,并且在资源总量不变的情况下调整单个虚拟机的资源分配且不需要停机处理;方式二:根据经过计算的虚拟机的优先级规则,动态调整各虚拟机的资源分配数据。
然而,发明人发现,上述两种方式均是通过调整资源在各个虚拟机中的分配比例,来实现资源的动态分配,而对于调度弹性差的内存资源而言,这种调整是不可接受的,例如用户不能接收内存资源的缩减等,从而可能存在分配给虚拟机的内存资源在一段时间内处于空闲状态,没有被虚拟机的负载使用,导致内存资源的利用率低。
发明内容
本申请提供一种云系统内存数据处理方法、装置、设备及存储介质,用于解决相关技术中,云系统中内存资源利用率低的问题。
本申请一方面实施例提供一种云系统内存数据处理方法,该方法包括:检测第一虚拟机内存中各数据当前是否满足转存条件;将满足转存条件的第一数据,转存至预设的存储区,以使所述第一数据所在内存空间处于空闲状态;获取待缓存的第二数据;将所述第二数据写入所述内存空间。
本申请另一方面实施例提供一种云系统内存数据处理装置,该装置包括:检测模块,用于检测第一虚拟机内存中各数据当前是否满足转存条件;转存模块,用于将满足转存条件的第一数据,转存至预设的存储区,以使所述第一数据所在内存空间处于空闲状态;获取模块,用于获取待缓存的第二数据;写入模块,用于将所述第二数据写入所述内存空间。
本申请又一方面实施例提供一种计算机设备,该计算机设备包括:包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,以实现第一方面实施例所述的云系统内存数据处理方法。
本申请再一方面实施例的计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时,以实现第一方面实施例所述的云系统内存数据处理方法。
本申请再一方面实施例的计算机程序,当所述计算机程序被处理器执行时,实现第一方面实施例所述的云系统内存数据处理方法。
本申请公开的技术方案,具有如下有益效果:
通过检测第一虚拟机内存中各数据当前是否满足转存条件,以当各数据当前满足转存条件时,将满足转存条件的第一数据,转存至预设的存储区,使得第一数据所在第一虚拟机的内存空间处于空闲状态,然后在获取到待缓存的第二数据时,能够将第二数据写入当前状态为空闲的内存空间中。由此,实现了通过利用预设的存储区对虚拟机内存资源进行扩容,以当虚拟机内存中存在满足转存条件的数据时,可将满足转存数据转存至预设的存储区,使得虚拟机可以有足够的内存资源进行其他的处理操作,以减少虚拟机上闲置的内存资源,不仅提高了云系统中内存资源的利用率,并且还能满足虚拟机内存资源的使用需求,有效改善了用户的使用体验。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中,
图1是本申请实施例提供的云系统内存数据处理的场景示意图;
图2是根据本申请一示例性实施例的云系统内存数据处理方法的流程示意图;
图3是根据本申请另一示例性实施例的云系统内存数据处理方法的流程示意图;
图4是与图3对应的场景示意图;
图5是根据本申请又一示例性实施例的云系统内存数据处理方法的流程示意图;
图6是根据本申请再一示例性实施例的云系统内存数据处理方法的流程示意图;
图7是根据本申请再一示例性实施例的云系统内存数据处理方法的流程示意图。
图8是根据本申请再一示例性实施例的云系统内存数据处理方法的流程示意图。
图9是根据本申请一示例性实施例的云系统内存数据处理装置的结构示意图;
图10是根据本申请另一示例性实施例的云系统内存数据处理装置的结构示意图;
图11是根据本申请一示例性实施例的计算机设备的结构示意图;
图12是根据本申请另一示例性实施例的计算机设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
本申请各实施例针对相关技术中,分配给虚拟机的内存资源在一段时间内处于空闲状态,没有被虚拟机的负载使用,导致内存资源的利用率低等问题,提出一种运系统内存数据处理方法。
本申请实施例,通过检测第一虚拟机内存中各数据当前是否满足转存条件,当确定满足转存条件时,将满足转存条件的第一数据,转存至预设的存储区,以使第一数据所在的第一虚拟机的内存空间处于空闲状态,从而当获取到待缓存的第二数据时,将待缓存的数据写入处于空闲状态的内容空间中。由此,实现了通过利用预设的存储区对虚拟机内存资源进行扩容,以当虚拟机内存中存在满足转存条件的数据时,可将满足转存数据转存至预设的存储区,使得虚拟机可以有足够的内存资源进行其他的处理操作,以减少虚拟机上闲置的内存资源,不仅提高了云系统中内存资源的利用率,并且还能满足虚拟机内存资源的使用需求,有效改善了用户的使用体验。
下面首先结合图1,对本申请实施例提供的云系统内存数据处理方法的使用场景进行详细说明。
实际应用中,为了提高云系统的资源利用率,宿主机可以根据各虚拟机的需求,动态的变更虚拟机的资源数量,以使宿主机的资源得到充分利用。若宿主机对各虚拟机的内存资源(内存空间)也进行动态调整时,此时就可能出现部分虚拟机的内存空间缩减,这就会使得上述虚拟机对应的用户产生不满情绪。
举例说明,如图1(a)所示,云系统A包括3个虚拟机x1、x2、x3,那么云系统A可以实时的对虚拟机x1、x2、x3的内存空间的使用情况进行监测(s1),当监测到虚拟机x1中的内存空间不能满足使用需求,则分别向虚拟机x2、x3发送内存空间使用数据的获取指令(s2),虚拟机x2、x3根据获取指令,将各自对应的内存空间使用数据返回给云系统A(s3),从而使得云系统A根据虚拟机x2、x3返回的内存空间使用数据分析(s4),虚拟机x2、x3内存空间的使用情况,当确定虚拟机x3的内存空间中存在空闲内存,则将虚拟机x3的处于空闲状态的内存空间进行回收(s5),并将回收的内存空间分配给虚拟机x1(s6),此时虚拟机x3对应的用户就无法接收云系统A对虚拟机x3的内存空间回收操作,即对云系统A的内存资源无法实现动态调整。
对此,如图1(b)所示,各虚拟机x1、x2、x3分配的内存空间中,除宿主机中实际的内存空间外,还包括一定的存储区y1、y2、y3,以利用存储区y1、y2、y3来为虚拟机内存空间中的数据提供临时存储空间。并通过实时监测各虚拟机x1、x2、x3的内存空间的访问情况,当监测出虚拟机x1内存空间中的数据满足转存条件时,则将满足转存条件的数据,转存至虚拟机x1对应的存储区y1,以使虚拟机x1有足够的内存空间进行数据存储等操作。
由于宿主机上的各虚拟机可以实时的将满足转存条件的数据,转存到对应的存储区中,从而使得各虚拟机进行数据处理时,无需通过云系统动态的变更各虚拟机的内存空间,从而不仅能够提升云系统的内存资源使用率,并且还能提高用户体验。
下面参考附图描述本申请实施例的云系统内存数据处理方法、装置、设备及存储介质进行详细说明。
首先,结合图2对本申请中云系统内存数据处理方法进行具体说明。
图2是根据本申请一示例性实施例的云系统内存数据处理方法的流程示意图图。
如图2所示,本申请的云系统内存数据处理方法可以包括以下步骤:
步骤101,检测第一虚拟机内存中各数据当前是否满足转存条件,若满足,则执行步骤102,否则继续执行步骤101。
其中,本申请实施例提供的云系统内存数据处理方法,可以由本申请实施例提供的计算机设备执行。其中,计算机设备中设置有云系统内存数据处理装置,以实现对各个虚拟机内存中数据进行处理。
本实施例计算机设备可以是任一具有数据处理功能的硬件设备,比如电脑、服务器、个人数字助理等等。
在本实施例中,第一虚拟机,是指云系统中同一主机上所有虚拟机中的任意一个虚拟机。
其中,转存条件可以根据第一虚拟机的实际使用场景进行适应性设置,此处对其不作具体限定。例如,转存条件可以为在一小时内,访问第一虚拟机内存中数据的次数小于2次;或者,转存条件,还可以为数据的访问频率为每30秒一次等等。
在实际使用过程中,由于第一虚拟机内存中可存储大量的数据信息,而当存储的数据信息越多,则第一虚拟机内存的剩余空间就越小,从而可能会造成第一虚拟机在后续处理数据时,处理速度缓慢,甚至无法正常处理等情况的发生。
因此,为了使得第一虚拟机能够有充足的内存空间进行后续的数据处理,本申请可以通过计算机设备中的检测单元,对第一虚拟机内存中存储的各数据进行实时检测,以确定第一虚拟机内存中存储的各数据当前是否满足转存条件。其中,若检测单元检测到第一虚拟机内存中存在数据当前满足转存条件时,则控制第一虚拟机对满足转存条件的数据进行转存处理,否则继续对第一虚拟机内存中存储的各数据进行实时检测,从而保证了第一虚拟机在进行后续数据处理时,始终都有足够的内存空间来使用,提高了第一虚拟机的处理速度和效率。
在实际使用中,第一虚拟机内存可以根据需求被划分为多个内存空间。例如,将第一虚拟机内存划分成四个内存空间,且上述四个内存空间可以分别标记为M1、M2、M3、M4。从而在对第一虚拟机内存中各数据当前是否满足转存条件进行检测时,可以通过对第一虚拟机上划分的多个内存空间中分别存储的数据进行检测操作。
也就是说,本实施例检测第一虚拟机内存中各数据当前是否满足转存条件,可以包括:获取第一虚拟机中每个内存空间的访问记录;根据每个内存空间的访问记录,确定每个内存空间中的数据当前是否满足转存条件。
其中,在本实施例中,访问记录可以包括以下信息中的至少一个:访问次数、访问频率、距离当前时刻最近的前一次访问时刻等等,此处对其不作具体限定。
例如,若转存条件为在一小时内,访问第一虚拟机内存中各数据的次数小于2次时,那么计算机设备可以通过检测单元,以根据转存条件对访问第一虚拟机中各内存空间中数据的访问次数进行检测,当检测到内存空间M1中的数据3、数据5、数据8在一小时内,被访问的次数小于2次时,则可以将内存空间M1中的数据3、数据5、数据8确定为满足转存条件的数据。
步骤102,将满足转存条件的第一数据,转存至预设的存储区,以使第一数据所在内存空间处于空闲状态。
其中,满足转存条件的第一数据的数量可以为一个,也可以为多个,此处对其不作限定。
在本实施例中,预设的存储区可以是,但不限于:普通硬盘、固态硬盘(SolidState Drives,简称:SSD)或者外设组件互连标准的固态硬盘(Peripheral ComponentInterconnect-Solid State Drives,简称为PCI-SSD)、非易失性内存(Non-VolatileDIMM,简称为:NVDIMM)设备,网络存储设备,云存储设备等等。
可选的,当确定出第一虚拟机内存中满足转存条件的各数据之后,计算机设备可以控制第一虚拟机将满足转存条件的第一数据转存至预设的存储区中,以使第一数据所在的内存空间处于空闲状态。
也就是说,通过将满足转存条件的第一数据,转存至预设的存储区,使得第一虚拟机内存中可以空闲出部分空间,从而使得第一虚拟机有充足的内存空间进行其他的处理操作,从而提高内存资源的利用率。
例如,若预设的存储区为SSD,那么计算机设备控制第一虚拟机将满足转存条件的第一数据,可以转存至SSD中,以使存储第一数据所在的内存空间处于空闲状态。
需要说明的是,由于云计算是一种资源共享的技术,云系统中资源售卖率(Resource sell Ratio)和利用率是衡量整个云系统性能和效率的重要指标。资源售卖率表示分配给虚拟机的资源占所有可分配物理资源的比例。资源售卖率存在两种考量方式,其一是单个资源的售卖率;其二是所有资源的整体售卖率。
而对于单个机器节点而言,每种资源的售卖率通常存在高低差异,而该机器节点整体售卖率的计算则由售卖率最低的资源决定。其中,常见的售卖载体为虚拟机,容器等。
相关技术中,为了提高各服务节点的资源售卖率,通常通过资源超卖(ResourceOversell)的方式,将各资源进行售卖。资源超卖是云系统中一种基于成本节约的资源分配方式,即分配给虚拟机的资源总量超过对应物理资源总量,也就是说,资源售卖率大于100%。
其中,使用资源超卖这种售卖方式的前提是分配给虚拟机的资源未得到充分使用,处于部分空闲状态。从而云系统可以将该部分资源再次售卖给新的虚拟机,以通过这种资源调度模式达到提升资源利用率和节约运营成本的目的。
然而,由于云系统售卖的资源具有调度弹性的差异,例如包括调度弹性强的资源和调度弹性弱的资源。其中,调度弹性强的资源可以是中央处理器(Central ProcessingUnit,简称:CPU)资源,IO(Input/Output)带宽资源等等,调度弹性弱的资源可以是存储资源,比如内存资源。对于调度弹性强的资源而言,易实现超卖,云系统可以通过提供跨节点的调度解决极端情况下的资源竞争,并且调度弹性强的资源的超卖对虚拟机用户的体验影响较小。而调度弹性弱的资源,则超卖困难,发生资源竞争对虚拟机用户的影响大。也就是说,基于木桶原则,调度弹性差的资源的售卖率决定了资源的整体售卖率,因此如何实现内存等资源的超卖是进一步提升整体售卖率的关键。
对此,为了提高整体售卖率,在本申请提供的实施例中,通过使用内存替代的方式,通过等量、低成本的存储区来代替虚拟机的内存,从而使得可以为各个虚拟机分配较大的内存资源(其由实际的内存资源和存储资源构成),同时,还可以基于合理的数据调度算法保证虚拟机的内存访问性能。从而在用户无感知的情况下,实现内存资源的超卖行为,不仅不会对用户的正常使用造成影响,而且还避免了发生资源竞争的同时有效提升整机资源的整体售卖率。
步骤103,获取待缓存的第二数据。
步骤104,将第二数据写入内存空间。
其中,待缓存的第二数据可以是任意形式、任意内容的数据,本实施例对此不作具体限定。
可选的,通过将满足转存条件的第一数据,转存至预设的存储区之后,第一虚拟机内存中可以空闲出存储第一数据的空间,此时第一虚拟机可以获取待缓存的第二数据,并将获取的待缓存的第二数据写入第一虚拟机内存中的空闲空间。
需要说明的是,在本实施例中,第一虚拟机获取待缓存的第二数据,可以是第一虚拟机内存中存储的数据;或者,还可以是其他虚拟机向第一虚拟机发送的数据等等,具体描述可参见下面实施例,此处对其不作详细赘述。
可以理解的是,本实施例中的云系统内存数据处理方法,通过向第一虚拟机分配相应的内存及预设的存储区,并对第一虚拟机内存中存储的各数据当前是否满足转存条件进行实时检测,当检测到存在满足转存条件的第一数据时,通过将第一数据转存至预设的存储区中,以将第一数据所在内存空间进行清空,从而使得第一虚拟机在获取到其他待缓存的数据时,能够有空间进行写入操作,从而不仅能够提高内存的利用率,而且还能实现在用户无感知的情况下,实现内存资源的超卖行为,以提高云系统中整机资源的整体售卖率。
本申请提供的云系统内存数据处理方法,通过检测第一虚拟机内存中各数据当前是否满足转存条件,以当各数据当前满足转存条件时,将满足转存条件的第一数据,转存至预设的存储区,使得第一数据所在第一虚拟机的内存空间处于空闲状态,然后在获取到待缓存的第二数据时,能够将第二数据写入当前状态为空闲的内存空间中。由此,实现了通过利用预设的存储区对虚拟机内存资源进行扩容,以当虚拟机内存中存在满足转存条件的数据时,可将满足转存数据转存至预设的存储区,使得虚拟机可以有足够的内存资源进行其他的处理操作,以减少虚拟机上闲置的内存资源,不仅提高了云系统中内存资源的利用率,并且还能满足虚拟机内存资源的使用需求,有效改善了用户的使用体验。
通过上述分析可知,本申请实施例通过将满足转存条件的第一数据,转存至预设存储区,以使第一数据所在内存空间处于空闲状态,从而当获取到待缓存的第二数据时,可将第二数据写入内容空间。
在实际使用过程中,由于云系统可以具有不同的宿主机,而每个宿主机上可以建立多个虚拟机,并且各个虚拟机中的内存可以根据需求划分成多个内存空间。因此为了提高对宿主机上的任一虚拟机内存中的各数据当前是否满足转存条件进行检测,本实施例在检测第一虚拟机内存中各数据当前是否满足转存条件时,还可以通过获取第一虚拟机所在宿主机中所有内存空间的访问记录,以根据所有内存空间中每个内存空间的访问记录,确定第一虚拟机中每个内存空间中数据当前是否满足转存条件,从而实现了对宿主机上任意虚拟机内存中各数据当前是否满足转存条件进行全面检测。下面结合图3,对本申请的云系统内存数据处理方法上述情况进行详细说明。
图3是根据本申请另一示例性实施例的云系统内存数据处理方法的流程示意图。
如图3所示,本申请实施例的云系统内存数据处理方法可以包括以下步骤:
步骤201,获取第一虚拟机所在宿主机中所有内存空间的访问记录。
其中,访问记录,包括以下信息中的至少一个:访问次数、访问频率、距离当前时刻最近的前一次访问时刻。
例如,若宿主机a上创建有2个虚拟机a1和a2,且虚拟机a1内存被划分为3个内存空间,虚拟机a2内存被划分为2个内存空间,那么宿主机a可以分别调取虚拟机a1中内存空间a11、内存空间a12及内存空间a13各自对应的访问记录,及虚拟机a2中内存空间a21和内存空间a22各自对应的访问记录,并且在调取到虚拟机a1和虚拟机a2对应的所有内存空间的访问记录之后,可将获取的所有内存空间访问记录进行后续的操作。
步骤202,根据每个内存空间的访问记录,确定第一虚拟机中的每一第一内存空间中的数据当前是否满足转存条件,若满足则执行步骤203,否则继续执行步骤202。
可选的,获取到第一虚拟机所在宿主机中所有内存空间的访问记录之后,即可根据转存条件,对每个内存空间的访问记录进行检测操作,以确定出第一虚拟机中每一第一内存空间中的数据当前是否满足转存条件。其中,当检测到属于第一虚拟机中的任一内存空间中的数据当前满足转存条件时,则可控制第一虚拟机对满足转存条件的数据进行转存处理,否则继续对每个内存空间的访问记录进行检测,从而通过将满足转存条件的数据进行转存操作,使得转存数据对应的内存空间处于空闲,从而使得内存空间所属的第一虚拟机可以进行后续的数据处理操作。
需要说明的是,在本实施例中,也可以没有设置转存条件,此时在获取到第一虚拟机所在宿主机中所有内存空间的访问记录之后,可以根据每个内存空间的访问记录中距离当前时刻最近的前一次访问时刻的先后顺序进行排序,并将排序靠后的内存空间中的数据确定为满足转存条件的数据。
例如,假设宿主机a上总共有3个内存空间a31、a32、a33,且每个内存空间的访问记录中距离当前时刻最近的前一次访问时刻分别为:2018-07-10,21:20;2018-07-11,08:30;2018-07-11,10:12;那么当当前时刻为2017-07-11,10-15,则可以确定出内存空间a31的访问记录距离当前时刻的时间间隔,比其余两个内存空间a32和a33的访问记录距离当前时刻的时间间隔长(即内存空间a31的排序位置在最后),此时就可以确定内存空间a31中的数据当前满足转存条件。
步骤203,将满足转存条件的第一内存空间中的数据,转存至预设的存储区,以使数据所在第一内存空间处于空闲状态。
步骤204,获取待缓存的第二数据。
步骤205,将第二数据写入内存空间。
其中,上述步骤203至步骤205的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
在本申请的一个实施例中,若步骤202在确定第一虚拟机中的每一第一内存空间中的数据当前是否满足转存条件时,若检测到同一宿主机上的第一虚拟机中的第一内存空间的访问记录与第二虚拟机中的第二内存空间的访问记录相同、且均满足转存条件时,则需要将两个虚拟机中内存空间中的数据转存至预设的存储区。
然而,由于第一虚拟机和第二虚拟机在实际使用过程中,对应的用户重要程度及中央处理器占用率等不同,从而使得第一虚拟机和第二虚拟机分别对应的内存空间中的数据满足转存条件时进行转存处理时,需要根据第一虚拟机和第二虚拟机在实际使用过程中的重要程度,有选择的将虚拟机的内存空间中的数据进行转存处理。也就是说,通过将重要等级比较低的虚拟机对应的内存空间中的数据进行转存操作,使得重要等级较高的虚拟机可以正常进行数据处理,不会延误数据处理的时机。
可选的,本实施例可以通过以下方式,确定出第一虚拟机和第二虚拟机的重要程度。
作为第一种实现方式:
根据第一虚拟机与第二虚拟机分别对应的优先级,确定第一内存空间中的数据及第二内存空间中的数据分别对应的转存优先级。
其中,在本实施例中第一虚拟机与第二虚拟机分别对应的优先级,即为第一虚拟机对应用户,及第二虚拟机对应用户的优先级。
也就是说,通过确定第一虚拟机对应用户与第二虚拟机对应用户的优先级,即重要程度,有选择性的将第一虚拟机或第二虚拟机内存中的数据进行转存操作。
举例来说,若第一虚拟机对应用户比第二虚拟机对应用户重要程度高,则计算机设备则可将重要程度比较低的第二虚拟机中的第二内存空间中的数据转存至预设的存储区。
作为第二种实现方式:
根据第一虚拟机及第二虚拟机当前分别对应的中央处理器占用率,确定第一内存空间中的数据及第二内存空间中的数据分别对应的转存优先级。
通常,中央处理器占用率的高低,能够说明设备当前时刻运行程序的情况。占用率越高,则说明设备当前运行的程序越多,反之越少。其中,当中央处理器占用率过高时,设备就很容易受到攻击,导致设备上的数据存在安全威胁,甚至使得用户无法正常使用。
因此,本实施例可以通过对第一虚拟机及第二虚拟机当前分别对应的中央处理器占用率,来确定第一内存空间中的数据及第二内存空间中的数据分别对应的转存优先级。
可以理解的是,通过确定第一虚拟机及第二虚拟机当前分别对应的中央处理器占用率,以确定出中央处理器占用率较高的虚拟机,其中中央处理器占用率较高的虚拟机相对于中央处理器占用率较低的虚拟机而言更容易收到安全攻击,此时可以确定中央处理器占用率较高的虚拟机转存优先级较高。
例如,若第一虚拟机a1当前对应的中央处理器占用率为75%,第二虚拟机a2当前对应的中央处理器占用率为20%,则说明第一虚拟机a1当前对应的中央处理器占用率远高于第二虚拟机a2当前对应的中央处理器占用率,此时可以确定第一虚拟机a1对应的第一内存空间中的数据转存优先级较高。
作为第三种实现方式:
根据第一虚拟机及第二虚拟机当前分别对应的带宽资源占用率,确定第一内存空间中的数据及第二内存空间中的数据分别对应的转存优先级。
例如,若第一虚拟机a1当前对应的带宽资源占用率为85%,第二虚拟机a2当前对应的带宽资源占用率为30%,则说明第一虚拟机a1当前对应的带宽资源占用率远高于第二虚拟机a2当前对应的带宽资源占用率,此时可以确定第一虚拟机a1对应的第一内存空间中的数据转存优先级较高。
需要说明的是,上述几种确定方式可以是单独实施,也可以是两两结合实施,还可以是三者结合实施,此处对其不作具体限定。
进而,当确定出第一虚拟机和第二虚拟机分别对应的第一内存空间中的数据及第二内存空间中的数据对应的转存优先级之后,即可按照确定的转存优先级进行相应的转存处理,以使转存的数据所在内存空间处于空闲状态。
为了更清楚描述本申请的实施例,下面通过图4,以下面可能的实现场景为例,对本申请实施例提供的对第一内存空间中的数据及第二内存空间中的数据分别对应的转存优先级的过程进行进一步的说明。
实现场景:宿主机a调取自身上所有虚拟机分别为第一虚拟机a1和第二虚拟机a2的内存空间的访问记录(s11),并根据转存条件,对调取的所有内存空间中每个内存空间的访问记录进行分析(s12),确定每个内存空间中的数据当前是否满足转存条件,若第一虚拟机a1中第一内存空间的访问记录,与第二虚拟机a2中的第二内存空间的访问记录相同,并且均满足转存条件,则宿主机a分别查询第一虚拟机a1和第二虚拟机a2对应的用户数据(s13),并对查询到的第一虚拟机a1对应的用户数据及第二虚拟机a2对应的用户数据进行分析(s14),确定第一内存空间中的数据对应转存优先级,高于第二内存空间中的数据对应的转存优先级,则向第二虚拟机a2发送转存指令(s15),以将转存优先级较低的第二内存空间中的数据转存至预设的存储区w2中,第二虚拟机a2将第二内存空间中的数据转存至预设的存储区w2(s16),以使第二内存空间处于空闲。
本发明实施例提供的运系统内存数据处理方法,通过获取第一虚拟机所在宿主机中所有内存空间的访问记录,并根据所有内存空间中的每个内存空间的访问记录,确定第一虚拟机中的每一第一内存空间中的数据当前是否满足转存条件,若第一虚拟机中的每一个第一内存空间中的数据当前满足转存条件时,则将满足转存条件的第一内存空间中的数据,转存至预设的存储区,以使数据所在第一内存处于空闲,若确定第一虚拟机中的第一内存空间的访问记录与第二虚拟机中的第二内存空间的访问记录相同、且均满足转存条件时,则进一步确定第一虚拟机中的第一内存空间中数据的转存优先级及第二虚拟机中的第二内存空间中数据的转存优先级,并根据确定结果进行相应的数据转存,从而实现了对同一宿主机上任意虚拟机内存中各数据当前是否满足转存条件进行全面检测,并且还能根据各虚拟机中的内存空间中数据的转存优先级有选择性的进行转存处理,使得各虚拟机上的数据安全性更高,并且还能保证用户的正常使用,提高了用户使用体验。
通过上述分析可知,本申请实施例通过获取第一虚拟机所在宿主机中所有内存空间的访问记录,并根据每个内存空间的访问记录,确定第一虚拟机中的每一第一内存空间中的数据当前是否满足转存条件,当满足转存条件时进行转存处理,以使第一虚拟机中的第一内存空间处于空闲状态。
在本申请的另一种实现方式中,在获取第一虚拟机所在宿主机中所有内存空间的访问记录之后,计算机设备可以根据转存条件,对所有内存空间的访问记录判断,若判断出上述宿主机中所有内存空间的访问记录均未满足转存条件、且宿主机中所有内存空间的占用率大于阈值,则说明宿主机当前已无法满足各虚拟机的正常使用,此时若继续使用各虚拟机进行不同的操作时,很可能出现系统崩溃,丢失重要数据的情况发生。对此,本实施例通过将任一虚拟机内存中的所有数据转存至新的宿主机内存,来缓解宿主机内存空间的紧缺,从而使得用户可以正常使用对应的虚拟机进行数据处理等操作。下面结合图5,对本申请云系统内存数据处理方法进行进一步的说明。
图5是根据本申请又一示例性实施例的云系统内存数据处理方法的流程示意图。
如图5所示,本申请实施例的云系统内存数据处理方法可以包括以下步骤:
步骤301,获取第一虚拟机所在宿主机中所有内存空间的访问记录。
步骤302,检测宿主机中所有内存空间的访问记录是否满足转存条件。
步骤303,若宿主机中所有内存空间的访问记录均未满足转存条件、且宿主机中所有内存空间的占有率大于阈值,则将宿主机中的至少一个虚拟机内存中的所有数据转存至新的宿主机内存。
其中,阈值可以根据实际使用进行适应性设置,本实施例对此不作具体限定。
可以理解的是,当宿主机中所有内存空间的访问记录均未满足转存条件,且所有内存空间的占用率大于阈值,则说明宿主机当前已经无法保证各虚拟机正常运行,因此为了避免造成数据丢失,本实施例通过将宿主机中至少一个虚拟机内存中所有数据转存至新的宿主机内存中,以减轻宿主机当前的负担,从而保证宿主机中剩余的虚拟机能够有充足的内存空间进行数据存储、数据读取等操作。
通过上述分析可知,本申请实施例通过将宿主机中的至少一个虚拟机内存中的所有数据保存至新的宿主机内存,以减轻宿主机的负担。
在实际应用时,由于第一虚拟机在实际运行时,可以接收用户输入的数据,也可以根据实际操作,读取预设存储区中存储的数据,因此本申请实施例获取的待缓存的第二数据,可以包括第一虚拟机新获取的数据,或者从第一虚拟机对应的预设存储区中读取的数据。下面结合图6,对本申请的云系统内存数据处理方法进行进一步的说明。
图6是根据本申请再一示例性实施例的云系统内存数据处理方法的流程示意图。
如图6所示,本申请实施例的云系统内存数据处理方法可以包括以下步骤:
步骤401,检测第一虚拟机内存中各数据当前是否满足转存条件,若满足,则执行步骤402,否则继续执行步骤401。
其中,上述步骤401的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤402,将满足转存条件的第一数据,转存至预设的存储区,以使第一数据所在内存空间处于空闲状态。
其中,上述步骤402的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤403,根据第一虚拟机发送的内存数据读取请求,确定第二数据的标识。
步骤404,从预设的存储区中获取与第二数据的标识对应的第二数据。
其中,第一虚拟机发送的内存数据读取请求,可以是第一虚拟机当前运行的负载,根据进程需求自动触发的读取请求,或者,还可以是用户人工手动触发的读取请求等等,此处不作具体限定。
举例来说,若读取请求是第一虚拟机当前运行的负载:XX应用,根据进程需求自动触发的读取请求,那么当XX应用需要获取用户登录信息时,则可以XX应用可以自动向第一虚拟机发送内存数据读取请求,以获取用户的登录信息。
本申请实施例中,第二数据可以是存储在预设的存储区中的任意数据。
第二数据的标识可以为以下信息中的至少一种:数据名称、数据存储位置等等。
作为本申请的一种可选的实现形式,在向内存发送内存数据读取请求时,通过将第二数据的标识携带在读取请求中,以使计算机设备可以通过对读取请求进行解析,确定出第二数据的标识,从而可以根据第二数据的标识,从第一虚拟机对应的预设的存储区中,获取与第二数据标识对应的第二数据。
进一步的,在本申请的另一个可选的实现方式中,本申请还可以从第一虚拟机发送的内存请求中,获取第二数据。
也就是说,第二数据可以为第一虚拟机在运行过程中新获取的待缓存的数据,从而第一虚拟机为了将该数据进行缓存,即会向内存请求资源,以获取足量的内存空间,存放新的数据。
步骤405,将第二数据写入内存空间。
其中,上述步骤405的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
本申请实施例的云系统内存数据处理方法,通过将满足转存条件的第一数据,转存至预设的存储区,以使第一数据所在内存空间处于空闲状态,并且接收到第一虚拟机发送的内存数据读取请求,以确定读取请求中第二数据的标识,以根据第二数据的标识,从预设的存储区中获取与第二数据的标识对应的第二数据,然后将获取的第二数据写入内存空间。由此,实现了虚拟机内存与预设存储区中数据的转换存储,从而不仅增大虚拟机的等效内存空间,而且还能提高数据处理速度,从而提高用户的使用体验。
通过上述分析可知,本申请实施例可以根据第一虚拟机的需求,读取与第一虚拟机对应的预设存储区中的数据,以将读取的数据作为第二数据,并将读取的第二数据写入内存空间。
在实际应用中,由于本申请向各个虚拟机分配的内存空间,是由实际的内存空间和预设的存储区组成,以使实现内存资源的超卖。在实际使用时,由于各虚拟机对内存资源的需求可能不同,从而当某一虚拟机上的待缓存数据无法正常在自身的内存时,还可以通过将待缓存的数据缓存到其他虚拟机的内存,以方便后续用户通过读取请求来调用对应的数据信息,从而可以提高数据处理速度及效率。下面结合图7,对本申请的云系统内存数据处理方法进行进一步的说明。
图7是根据本申请再一示例性实施例的云系统内存数据处理方法的流程示意图。
如图7所示,本申请实施例的云系统内存数据处理方法可以包括以下步骤:
步骤501,检测第一虚拟机内存中各数据当前是否满足转存条件,若满足,则执行步骤502,否则继续执行步骤501。
步骤502,将满足转存条件的第一数据,转存至预设的存储区,以使第一数据所在内存空间处于空闲状态。
其中,上述步骤501-步骤502的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤503,若确定第三虚拟机当前待缓存的数据从第三虚拟机剩余内存空间中溢出、且第三虚拟机内存中各数据均未满足转存条件,则确定第三虚拟机中的溢出数据为第二数据。
其中,第三虚拟机为除第一虚拟机之外的其他虚拟机。在本实施例中,第二虚拟机可以为一个,也可以为多个,此处不作具体限定。
可选的,当第三虚拟机获取到待存储的数据时,首先确定自身当前内存的剩余空间是否可以完全写入待存储的数据,若不能完全写入待存储的数据,则进一步确定自身内存中存储的各数据当前是否满足转存条件;若满足则可以将满足转存条件的数据,转存至预设的存储区,然后将待缓存的数据写入内存中处于空闲状态的空间;若不满足,则说明第三虚拟机当前无法在自身的内存中存储待缓存的数据。此时为了将待缓存的数据进行缓存,本实施例还可以将第三虚拟机当前无法写入的待缓存数据,作为第二数据,并将第二数据写入具有空闲内存空间的第一虚拟机中,从而方便后续第三虚拟机在调用该待缓存的数据时,可以向第一虚拟机发送读取请求,来获取对应的待缓存的数据。
步骤504,将第二数据写入内存空间。
其中,上述步骤504的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
本申请实施例的云系统内存数据处理方法,通过将其他虚拟机无法正常缓存的数据,写入第一虚拟机内存空间,从而使得各虚拟机之间可以实现数据的交互,不仅为用户使用数据提供便利,还能提高内存资源的利用率,从而满足了用户需求,提升用户体验。
通过上述分析可知,本申请实施例在确定第三虚拟机当前待缓存的数据无法正常缓存时,将当前待缓存的数据确定为第二数据,以将第二数据写入第一虚拟机的内存空间。
在本申请的一种实现情景,本申请实施例中第一虚拟机不仅可以实现主动内存收回操作,还可以实现被动内存回收操作,其中,被动内存回收可以是指当第一虚拟机当前待缓存的数据无法正常缓存,比如从第一虚拟机剩余内存空间中溢出时,则此时就需要进行内存回收操作,以将合理的内存进行回收,从而将待缓存的数据进行缓存,从而能够保证内存资源的充分利用。下面结合图8,对本申请的云系统内存数据处理方法进行进一步的说明。
图8是根据本申请再一示例性实施例的云系统内存数据处理方法的流程示意图。
如图8所示,本申请实施例的云系统内存数据处理方法可以包括以下步骤:
步骤601,确定第一虚拟机当前待缓存的数据从第一虚拟机剩余内存空间中溢出。
步骤602,检测第一虚拟机内存中各数据当前是否满足转存条件,若满足,则执行步骤603,否则执行步骤605。
步骤603,将满足转存条件的第一数据,转存至预设的存储区,以使第一数据所在内存空间处于空闲状态。
步骤604,将溢出的待缓存数据写入内存空间。
步骤605,检测第二虚拟机内存中各数据当前是否满足转存条件,若满足,则执行步骤606,否则继续执行步骤605。
步骤606,将满足转存条件的各数据,转存至预设的存储区,以使各数据所在内存空间处于空闲状态。
步骤607,将第一虚拟机溢出的待缓存数据写入第二虚拟机中处于空闲状态的内存空间。
本申请实施例的云系统内存数据处理方法,当第一虚拟机将待缓存的数据写入内存空间时,若当前剩余内容空间无法满足时,通过对内存中存储的各数据当前是否满足转存条件进行确定。当满足时则将满足转存条件的第一数据转存至预设的存储区,从而使得第一虚拟机有空闲的内存,从而将溢出的待缓存数据写入内存空间;当不满足时,则通过其他虚拟机对自身内存中满足转存条件的各数据,转存至对应的预设的存储区,以使各数据所在内存空间处于空闲状态,从而第一虚拟机可将溢出的待缓存数据发送给第二虚拟机,第二虚拟机将收到的溢出的待缓存的数据写入内存空间,从而保证物理内存的充分利用。
为了实现上述实施例,本申请还提出了一种云系统内存数据处理装置。
图9是根据本申请一示例性实施例的云系统内存数据处理装置的结构示意图。
如图9所示,本申请的云系统内存数据处理装置包括:检测模块11、转存模块12、获取模块13以及写入模块14。
其中,检测模块11用于检测第一虚拟机内存中各数据当前是否满足转存条件;
作为一种可选的实现方式,检测模块11具体用于:获取所述第一虚拟机中每个内存空间的访问记录;
根据每个内存空间的访问记录,确定每个内存空间中的数据当前是否满足转存条件;
其中,所述访问记录,包括以下信息中的至少一个:访问次数、访问频率、距离当前时刻最近的前一次访问时刻。
转存模块12用于将满足转存条件的第一数据,转存至预设的存储区,以使所述第一数据所在内存空间处于空闲状态;
获取模块13用于获取待缓存的第二数据;
写入模块14用于将所述第二数据写入所述内存空间。
需要说明的是,前述对云系统内存数据处理方法实施例的解释说明也适用于该实施例的云系统内存数据处理装置,其实现原理类似,此处不再赘述。
本实施例提供的云系统内存数据处理装置,通过检测第一虚拟机内存中各数据当前是否满足转存条件,以当各数据当前满足转存条件时,将满足转存条件的第一数据,转存至预设的存储区,使得第一数据所在第一虚拟机的内存空间处于空闲状态,然后在获取到待缓存的第二数据时,能够将第二数据写入当前状态为空闲的内存空间中。由此,实现了通过利用预设的存储区对虚拟机内存资源进行扩容,以当虚拟机内存中存在满足转存条件的数据时,可将满足转存数据转存至预设的存储区,使得虚拟机可以有足够的内存资源进行其他数据的处理,不仅满足了虚拟机内存资源的使用需求,并且还能有效提高虚拟机的使用性能,有效改善了用户的使用体验。
图10是根据本申请另一示例性实施例的云系统内存数据处理装置的结构示意图。
如图10所示,本申请的云系统内存数据处理装置包括:检测模块11、转存模块12、获取模块13以及写入模块14。
其中,检测模块11包括:第一获取单元110、第一确定单元111。
其中,第一获取单元110用于获取所述第一虚拟机所在宿主机中所有内存空间的访问记录;
第一确定单元111用于根据每个内存空间的访问记录,确定所述第一虚拟机中的每个第一内存空间中的数据当前是否满足转存条件;
其中,所述访问记录,包括以下信息中的至少一个:访问次数、访问频率、距离当前时刻最近的前一次访问时刻。
转存模块12用于将满足转存条件的第一数据,转存至预设的存储区,以使所述第一数据所在内存空间处于空闲状态;
获取模块13用于获取待缓存的第二数据;
写入模块14用于将所述第二数据写入所述内存空间。
作为本申请的另一种实现形式,第一确定单元111具体用于:若第一虚拟机中的第一内存空间的访问记录与第二虚拟机中的第二内存空间的访问记录相同、且均满足转存条件;
作为本申请的另一种实现形式,本申请云系统内存数据处理装置,还包括:第一确定模块。
其中,第一确定模块具体用于根据所述第一虚拟机与所述第二虚拟机分别对应的优先级,确定所述第一内存空间中的数据及所述第二内存空间中的数据分别对应的转存优先级;
或者,
根据所述第一虚拟机及所述第二虚拟机当前分别对应的中央处理器占用率,确定所述第一内存空间中的数据及所述第二内存空间中的数据分别对应的转存优先级;或者,
根据所述第一虚拟机及所述第二虚拟机当前分别对应的带宽资源占用率,确定所述第一内存空间中的数据及所述第二内存空间中的数据分别对应的转存优先级。
需要说明的是,前述对云系统内存数据处理方法实施例的解释说明也适用于该实施例的云系统内存数据处理装置,其实现原理类似,此处不再赘述。
本实施例提供的云系统内存数据处理装置,通过获取第一虚拟机所在宿主机中所有内存空间的访问记录,并根据所有内存空间中的每个内存空间的访问记录,确定第一虚拟机中的每一第一内存空间中的数据当前是否满足转存条件,若第一虚拟机中的每一个第一内存空间中的数据当前满足转存条件时,则将满足转存条件的第一内存空间中的数据,转存至预设的存储区,以使数据所在第一内存处于空闲,若确定第一虚拟机中的第一内存空间的访问记录与第二虚拟机中的第二内存空间的访问记录相同、且均满足转存条件时,则进一步确定第一虚拟机中的第一内存空间中数据的转存优先级及第二虚拟机中的第二内存空间中数据的转存优先级,并根据确定结果进行相应的数据转存,从而实现了对同一宿主机上任意虚拟机内存中各数据当前是否满足转存条件进行全面检测,并且还能根据各虚拟机中的内存空间中数据的转存优先级有选择性的进行转存处理,使得各虚拟机上的数据安全性更高,并且还能保证用户的正常使用,提高了用户使用体验。
作为本申请的另一种可选的实现形式,第一确定单元111具体用于;若所述宿主机中所有内存空间的访问记录均未满足转存条件、且所述宿主机中所有内存空间的占有率大于阈值,则将所述宿主机中的至少一个虚拟机内存中的所有数据转存至新的宿主机内存。
作为本申请的一种可选的实现形式,本申请获取模块12,具体用于:
从所述第一虚拟机发送的内存请求中,获取所述第二数据;
或者,
根据所述第一虚拟机发送的内存数据读取请求,确定所述第二数据的标识;
从所述预设的存储区中获取与所述第二数据的标识对应的第二数据;
或者,若确定第三虚拟机当前待缓存的数据从所述第三虚拟机剩余内存空间中溢出、且所述第三虚拟机内存中各数据均未满足转存条件,则确定所述第三虚拟机中的溢出数据为所述第二数据。
作为本申请的一种可选的实现形式,本申请云系统内存数据处理装置,还包括:第二确定模块。
其中,第二确定模块用于确定所述第一虚拟机当前待缓存的数据从所述第一虚拟机剩余内存空间中溢出。
为了实现上述实施例,本申请还提出一种计算机设备。
图11是根据本申请一示例性实施例的计算机设备的结构示意图。图11显示的计算机设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图11所示,上述计算机设备200包括:存储器210、处理器220及存储在存储器210上并可在处理器220上运行的计算机程序,所述处理器220执行所述程序时,以用于实现所述的云系统内存数据处理方法。
其中,云系统内存数据处理方法包括:检测第一虚拟机内存中各数据当前是否满足转存条件;将满足转存条件的第一数据,转存至预设的存储区,以使所述第一数据所在内存空间处于空闲状态;获取待缓存的第二数据;将所述第二数据写入所述内存空间。
一种可选的实现形式,所述检测第一虚拟机内存中各数据当前是否满足转存条件,包括:获取所述第一虚拟机中每个内存空间的访问记录;根据每个内存空间的访问记录,确定每个内存空间中的数据当前是否满足转存条件;其中,所述访问记录,包括以下信息中的至少一个:访问次数、访问频率、距离当前时刻最近的前一次访问时刻。
一种可选的实现形式,所述检测第一虚拟机内存中各数据当前是否满足转存条件,包括:获取所述第一虚拟机所在宿主机中所有内存空间的访问记录;根据每个内存空间的访问记录,确定所述第一虚拟机中的每个第一内存空间中的数据当前是否满足转存条件;其中,所述访问记录,包括以下信息中的至少一个:访问次数、访问频率、距离当前时刻最近的前一次访问时刻。
一种可选的实现形式,若第一虚拟机中的第一内存空间的访问记录与第二虚拟机中的第二内存空间的访问记录相同、且均满足转存条件;所述确定所述第一虚拟机中的每个第一内存空间中的数据当前是否满足转存条件之后,还包括:根据所述第一虚拟机与所述第二虚拟机分别对应的优先级,确定所述第一内存空间中的数据及所述第二内存空间中的数据分别对应的转存优先级;
或者,根据所述第一虚拟机及所述第二虚拟机当前分别对应的中央处理器占用率,确定所述第一内存空间中的数据及所述第二内存空间中的数据分别对应的转存优先级;
或者,根据所述第一虚拟机及所述第二虚拟机当前分别对应的带宽资源占用率,确定所述第一内存空间中的数据及所述第二内存空间中的数据分别对应的转存优先级。
一种可选的实现形式,所述获取所述第一虚拟机所在宿主机中所有内存空间的访问记录之后,还包括:若所述宿主机中所有内存空间的访问记录均未满足转存条件、且所述宿主机中所有内存空间的占有率大于阈值,则将所述宿主机中的至少一个虚拟机内存中的所有数据转存至新的宿主机内存。
一种可选的实现形式,所述获取待缓存的第二数据,包括:从所述第一虚拟机发送的内存请求中,获取所述第二数据;或者,根据所述第一虚拟机发送的内存数据读取请求,确定所述第二数据的标识;从所述预设的存储区中获取与所述第二数据的标识对应的第二数据;或者,若第三虚拟机当前待缓存的数据从所述第三虚拟机剩余内存空间中溢出、且所述第三虚拟机内存中各数据均未满足转存条件,则确定所述第三虚拟机中的溢出数据为所述第二数据。
一种可选的实现形式,所述检测第一虚拟机内存中各数据当前是否满足转存条件之前,还包括:确定所述第一虚拟机当前待缓存的数据从所述第一虚拟机剩余内存空间中溢出。
在一种可选的实现形式中,如图12所示,该计算机设备200还可以包括:存储器210及处理器220,连接不同组件(包括存储器210和处理器220)的总线230,存储器210存储有计算机程序,当处理器220执行所述程序时实现本申请实施例所述的云系统内存数据处理方法。
总线230表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备200典型地包括多种计算机设备可读介质。这些介质可以是任何能够被计算机设备200访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器210还可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)240和/或高速缓存存储器250。计算机设备200可以进一步包括其他可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统260可以用于读写不可移动的、非易失性磁介质(图12未显示,通常称为“硬盘驱动器”)。尽管图12中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其他光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线230相连。存储器210可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块270的程序/实用工具280,可以存储在例如存储器210中,这样的程序模块270包括——但不限于——操作系统、一个或者多个应用程序、其他程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块270通常执行本申请所描述的实施例中的功能和/或方法。
计算机设备200也可以与一个或多个外部设备290(例如键盘、指向设备、显示器291等)通信,还可与一个或者多个使得用户能与该计算机设备200交互的设备通信,和/或与使得该计算机设备200能与一个或多个其他计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口292进行。并且,计算机设备200还可以通过网络适配器293与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器293通过总线230与计算机设备200的其他模块通信。应当明白,尽管图中未示出,可以结合计算机设备200使用其他硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
需要说明的是,本实施例的计算机设备的实施过程和技术原理参见前述对第一方面实施例的云系统内存数据处理方法的解释说明,此处不再赘述。
本申请实施例提供的计算机设备,通过检测第一虚拟机内存中各数据当前是否满足转存条件,以当各数据当前满足转存条件时,将满足转存条件的第一数据,转存至预设的存储区,使得第一数据所在第一虚拟机的内存空间处于空闲状态,然后在获取到待缓存的第二数据时,能够将第二数据写入当前状态为空闲的内存空间中。由此,实现了通过利用预设的存储区对虚拟机内存资源进行扩容,以当虚拟机内存中存在满足转存条件的数据时,可将满足转存数据转存至预设的存储区,使得虚拟机可以有足够的内存资源进行其他的处理操作,以减少虚拟机上闲置的内存资源,不仅提高了云系统中内存资源的利用率,并且还能满足虚拟机内存资源的使用需求,有效改善了用户的使用体验。
为实现上述目的,本申请还提出一种计算机可读存储介质。
其中该计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,以实现第一方面实施例所述的云系统内存数据处理方法。
一种可选实现形式中,本实施例可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
为实现上述目的,本申请还提出一种计算机程序。其中当计算机程序被处理器执行时,以实现第一方面实施例所述的云系统内存数据处理方法。
在本申请中,除非另有明确的规定和限定,术语“设置”、“连接”等术语应做广义理解,例如,可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (11)

1.一种云系统内存数据处理方法,其特征在于,包括:
检测第一虚拟机内存中各数据当前是否满足转存条件;
将满足转存条件的第一数据,转存至预设的存储区,以使所述第一数据所在内存空间处于空闲状态;
获取待缓存的第二数据;
将所述第二数据写入所述内存空间。
2.如权利要求1所述的方法,其特征在于,所述检测第一虚拟机内存中各数据当前是否满足转存条件,包括:
获取所述第一虚拟机中每个内存空间的访问记录;
根据每个内存空间的访问记录,确定每个内存空间中的数据当前是否满足转存条件;
其中,所述访问记录,包括以下信息中的至少一个:访问次数、访问频率、距离当前时刻最近的前一次访问时刻。
3.如权利要求1所述的方法,其特征在于,所述检测第一虚拟机内存中各数据当前是否满足转存条件,包括:
获取所述第一虚拟机所在宿主机中所有内存空间的访问记录;
根据每个内存空间的访问记录,确定所述第一虚拟机中的每个第一内存空间中的数据当前是否满足转存条件;
其中,所述访问记录,包括以下信息中的至少一个:访问次数、访问频率、距离当前时刻最近的前一次访问时刻。
4.如权利要求3所述的方法,其特征在于,若第一虚拟机中的第一内存空间的访问记录与第二虚拟机中的第二内存空间的访问记录相同、且均满足转存条件;
所述确定所述第一虚拟机中的每个第一内存空间中的数据当前是否满足转存条件之后,还包括:
根据所述第一虚拟机与所述第二虚拟机分别对应的优先级,确定所述第一内存空间中的数据及所述第二内存空间中的数据分别对应的转存优先级;
或者,
根据所述第一虚拟机及所述第二虚拟机当前分别对应的中央处理器占用率,确定所述第一内存空间中的数据及所述第二内存空间中的数据分别对应的转存优先级;或者,
根据所述第一虚拟机及所述第二虚拟机当前分别对应的带宽资源占用率,确定所述第一内存空间中的数据及所述第二内存空间中的数据分别对应的转存优先级。
5.如权利要求3所述的方法,其特征在于,所述获取所述第一虚拟机所在宿主机中所有内存空间的访问记录之后,还包括:
若所述宿主机中所有内存空间的访问记录均未满足转存条件、且所述宿主机中所有内存空间的占有率大于阈值,则将所述宿主机中的至少一个虚拟机内存中的所有数据转存至新的宿主机内存。
6.如权利要求1-5任一所述的方法,其特征在于,所述获取待缓存的第二数据,包括:
从所述第一虚拟机发送的内存请求中,获取所述第二数据;
或者,
根据所述第一虚拟机发送的内存数据读取请求,确定所述第二数据的标识;
从所述预设的存储区中获取与所述第二数据的标识对应的第二数据;
或者,
若第三虚拟机当前待缓存的数据从所述第三虚拟机剩余内存空间中溢出、且所述第三虚拟机内存中各数据均未满足转存条件,则确定所述第三虚拟机中的溢出数据为所述第二数据。
7.如权利要求1-5任一所述的方法,其特征在于,所述检测第一虚拟机内存中各数据当前是否满足转存条件之前,还包括:
确定所述第一虚拟机当前待缓存的数据从所述第一虚拟机剩余内存空间中溢出。
8.一种云系统内存数据处理装置,其特征在于,包括:
检测模块,用于检测第一虚拟机内存中各数据当前是否满足转存条件;
转存模块,用于将满足转存条件的第一数据,转存至预设的存储区,以使所述第一数据所在内存空间处于空闲状态;
获取模块,用于获取待缓存的第二数据;
写入模块,用于将所述第二数据写入所述内存空间。
9.一种计算机设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,以实现如权利要求1-7任一所述的云系统内存数据处理方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时,以实现如权利要求1-7任一所述的云系统内存数据处理方法。
11.一种计算机程序,其特征在,其特征在于,当所述计算机程序被处理器执行时,实现如权利要求1-7任一所述的云系统内存数据处理方法。
CN201810771227.4A 2018-07-13 2018-07-13 云系统内存数据处理方法、装置、设备及存储介质 Active CN110196770B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810771227.4A CN110196770B (zh) 2018-07-13 2018-07-13 云系统内存数据处理方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810771227.4A CN110196770B (zh) 2018-07-13 2018-07-13 云系统内存数据处理方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN110196770A true CN110196770A (zh) 2019-09-03
CN110196770B CN110196770B (zh) 2023-04-18

Family

ID=67751371

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810771227.4A Active CN110196770B (zh) 2018-07-13 2018-07-13 云系统内存数据处理方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN110196770B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110740100A (zh) * 2019-10-22 2020-01-31 新华三信息安全技术有限公司 一种传输速率确定方法、装置、网络设备及存储介质
CN111193607A (zh) * 2019-09-23 2020-05-22 腾讯云计算(北京)有限责任公司 一种传输资源管理的方法、装置及存储介质
CN111752712A (zh) * 2020-06-28 2020-10-09 中国银行股份有限公司 虚拟机资源利用率提高方法及装置
CN112232770A (zh) * 2020-10-17 2021-01-15 严怀华 基于智慧社区和云服务的业务信息处理方法及云服务中心
CN113204382A (zh) * 2021-05-12 2021-08-03 北京百度网讯科技有限公司 数据处理方法、装置、电子设备以及存储介质
CN113918322A (zh) * 2021-09-09 2022-01-11 芯华章科技股份有限公司 在内存中动态存储逻辑系统设计的仿真数据的方法及设备
CN115269188A (zh) * 2022-07-28 2022-11-01 江苏安超云软件有限公司 虚拟机智能内存回收方法和装置、电子设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101403992A (zh) * 2008-07-18 2009-04-08 华为技术有限公司 实现远程内存交换的方法、装置及系统
CN102043671A (zh) * 2009-10-23 2011-05-04 Sap股份公司 在动态迁移期间调控存储器相似性
CN102314378A (zh) * 2010-06-29 2012-01-11 微软公司 使用共享存储来迁移虚拟机的技术
CN103502944A (zh) * 2011-11-28 2014-01-08 华为技术有限公司 虚拟机内存调整方法和设备
WO2014104509A1 (ko) * 2012-12-31 2014-07-03 고려대학교 산학협력단 가상화 시스템에서의 메모리 관리 방법
CN104915151A (zh) * 2015-06-02 2015-09-16 杭州电子科技大学 多虚拟机系统中一种主动共享的内存超量分配方法
CN107203411A (zh) * 2017-04-18 2017-09-26 中国科学院计算技术研究所 一种基于远程ssd的虚拟机内存扩展方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101403992A (zh) * 2008-07-18 2009-04-08 华为技术有限公司 实现远程内存交换的方法、装置及系统
CN102043671A (zh) * 2009-10-23 2011-05-04 Sap股份公司 在动态迁移期间调控存储器相似性
CN102314378A (zh) * 2010-06-29 2012-01-11 微软公司 使用共享存储来迁移虚拟机的技术
CN103502944A (zh) * 2011-11-28 2014-01-08 华为技术有限公司 虚拟机内存调整方法和设备
US20140013072A1 (en) * 2011-11-28 2014-01-09 Huawei Technologies Co., Ltd. Method and device for adjusting memory of virtual machine
WO2014104509A1 (ko) * 2012-12-31 2014-07-03 고려대학교 산학협력단 가상화 시스템에서의 메모리 관리 방법
CN104915151A (zh) * 2015-06-02 2015-09-16 杭州电子科技大学 多虚拟机系统中一种主动共享的内存超量分配方法
CN107203411A (zh) * 2017-04-18 2017-09-26 中国科学院计算技术研究所 一种基于远程ssd的虚拟机内存扩展方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SHUBHAKANKSHI GOUTAM 等: "Preemptable priority based dynamic resource allocation in cloud computing with fault tolerance" *
施伟: "基于云计算的资源池管理平台的设计与实现" *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111193607A (zh) * 2019-09-23 2020-05-22 腾讯云计算(北京)有限责任公司 一种传输资源管理的方法、装置及存储介质
CN111193607B (zh) * 2019-09-23 2023-04-07 腾讯云计算(北京)有限责任公司 一种传输资源管理的方法、装置及存储介质
CN110740100A (zh) * 2019-10-22 2020-01-31 新华三信息安全技术有限公司 一种传输速率确定方法、装置、网络设备及存储介质
CN110740100B (zh) * 2019-10-22 2022-04-22 新华三信息安全技术有限公司 一种传输速率确定方法、装置、网络设备及存储介质
CN111752712A (zh) * 2020-06-28 2020-10-09 中国银行股份有限公司 虚拟机资源利用率提高方法及装置
CN111752712B (zh) * 2020-06-28 2023-08-18 中国银行股份有限公司 虚拟机资源利用率提高方法及装置
CN112232770A (zh) * 2020-10-17 2021-01-15 严怀华 基于智慧社区和云服务的业务信息处理方法及云服务中心
CN112232770B (zh) * 2020-10-17 2021-08-20 成都数字家园科技有限公司 基于智慧社区和云服务的业务信息处理方法及云服务设备
CN113204382A (zh) * 2021-05-12 2021-08-03 北京百度网讯科技有限公司 数据处理方法、装置、电子设备以及存储介质
CN113204382B (zh) * 2021-05-12 2024-05-10 北京百度网讯科技有限公司 数据处理方法、装置、电子设备以及存储介质
CN113918322A (zh) * 2021-09-09 2022-01-11 芯华章科技股份有限公司 在内存中动态存储逻辑系统设计的仿真数据的方法及设备
CN115269188A (zh) * 2022-07-28 2022-11-01 江苏安超云软件有限公司 虚拟机智能内存回收方法和装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN110196770B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN110196770A (zh) 云系统内存数据处理方法、装置、设备及存储介质
US11144209B2 (en) Method, apparatus and computer program product for managing input/output
US9998532B2 (en) Computer-based, balanced provisioning and optimization of data transfer resources for products and services
US8706869B2 (en) Distributed cloud placement software
US10372498B2 (en) Dynamic virtual CPU core allocation
US9413680B1 (en) Multi-tenant throttling approaches
US9210031B1 (en) Brokering for application hosting computing resources of multiple vendor-specific provisioned computing environments
US9501313B2 (en) Resource management and allocation using history information stored in application's commit signature log
US11068418B2 (en) Determining memory access categories for tasks coded in a computer program
US9753851B2 (en) Multi-section garbage collection system including real-time garbage collection scheduling
US20220138015A1 (en) Shared enterprise cloud
US10204060B2 (en) Determining memory access categories to use to assign tasks to processor cores to execute
US9891945B2 (en) Storage resource management in virtualized environments
US11347512B1 (en) Substitution through protocol to protocol translation
US10205774B2 (en) Clustering request and prioritizing workmanager threads based on resource performance and/or availability
CN108415765A (zh) 任务调度方法、装置及智能终端
US9088569B2 (en) Managing access to a shared resource using client access credentials
CN114579319B (zh) 显存管理方法、显存管理模块、soc及电子设备
US20200073721A1 (en) Shared and exclusive accelerator access
US11307889B2 (en) Schedule virtual machines
US10657079B1 (en) Output processor for transaction processing system
US9176910B2 (en) Sending a next request to a resource before a completion interrupt for a previous request
US20240187493A1 (en) Intelligent Timeout Prediction in a Chain of Microservices Corresponding to a Service Mesh
Call Barreiro Leveraging disaggregated accelerators and non-volatile memories to improve the efficiency of modern datacenters
CN115686748A (zh) 虚拟化管理下的服务请求响应方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant