CN114201269A - 内存换页方法、系统及存储介质 - Google Patents

内存换页方法、系统及存储介质 Download PDF

Info

Publication number
CN114201269A
CN114201269A CN202210150479.1A CN202210150479A CN114201269A CN 114201269 A CN114201269 A CN 114201269A CN 202210150479 A CN202210150479 A CN 202210150479A CN 114201269 A CN114201269 A CN 114201269A
Authority
CN
China
Prior art keywords
physical address
hpa
page table
host
host machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210150479.1A
Other languages
English (en)
Other versions
CN114201269B (zh
Inventor
徐云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Cloud Computing Ltd
Original Assignee
Alibaba Cloud Computing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Cloud Computing Ltd filed Critical Alibaba Cloud Computing Ltd
Priority to CN202210150479.1A priority Critical patent/CN114201269B/zh
Publication of CN114201269A publication Critical patent/CN114201269A/zh
Application granted granted Critical
Publication of CN114201269B publication Critical patent/CN114201269B/zh
Priority to PCT/CN2023/074406 priority patent/WO2023155694A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/10Address translation
    • G06F12/1009Address translation using page tables, e.g. page table structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45583Memory management, e.g. access or allocation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本申请实施例提供一种内存换页方法、系统及存储介质。在本申请实施例中,针对不支持Page fault的IOMMU,VMM可确定需要页面更新的GPA,从宿主机的IOMMU存储的页表中,确定该GPA对应的第一HPA;并从宿主机内存的空闲物理地址中,确定替换第一HPA的第二HPA;进一步,可将第一HPA存储的数据复制至第二HPA;并将IOMMU的页表记录的需要更新的GPA对应的HPA更新为第二HPA,对不支持Page fault的IOMMU实现了页表更换。

Description

内存换页方法、系统及存储介质
技术领域
本申请涉及计算机技术领域,尤其涉及一种内存换页方法、系统及存储介质。
背景技术
在计算机领域,直通技术(Direct Pass-Through)引入了输入/输出内存管理单元(Input/Output Memory Management Unit,IOMMU),通过牺牲设备的共享能力,将设备专用于单个客户机,以达到实现设备全部功能和最优性能的目的。IOMMU可连接直接内存访问(Direct Memory Access,DMA)I/O总线和宿主机的内存。IOMMU可把直通设备(device)访问的虚拟地址转化成物理地址,实现直通设备对宿主机内存的访问。
在一些应用场景下,例如冷热内存页更替场景,需要进行IOMMU页表更换。在设备直通场景下,对于支持缺页中断(Page fault)功能的IOMMU,可采用Page fault方式更换IOMMU页表。对于不支持缺页中断功能的IOMMU,无法使用上述方式更换页表。因此,如何对不支持缺页中断的IOMMU实现页表更换成为本领域亟待解决的技术问题。
发明内容
本申请的多个方面提供一种内存换页方法、系统及存储介质,用以对不支持Pagefault的IOMMU实现页表更换。
本申请实施例提供一种内存换页方法,包括:
确定需要页表更新的虚拟机物理地址;
从宿主机的IOMMU存储的页表中,确定所述虚拟机物理地址对应的第一宿主机物理地址;
从宿主机内存的空闲物理地址中,确定第二宿主机物理地址;
将所述第一宿主机物理地址存储的数据复制至所述第二宿主机物理地址;
将所述IOMMU的页表记录的所述虚拟机物理地址对应的宿主机物理地址更新为所述第二宿主机物理地址。
本申请实施例还提供一种计算系统,包括:宿主机和虚拟机管理节点;
所述宿主机部署有虚拟机,并挂载有所述虚拟机直通的直通设备;所述宿主机还包括:IOMMU;所述IOMMU存储的页表记录有虚拟机的虚拟机物理地址与宿主机物理地址之间的对应关系;所述直通设备基于所述虚拟机的虚拟机物理地址与宿主机物理地址之间的对应关系,访问所述宿主机的内存;
所述虚拟机管理节点,用于:确定需要页表更新的虚拟机物理地址;从所述IOMMU存储的页表中,确定所述虚拟机物理地址对应的第一宿主机物理地址;从宿主机内存的空闲物理地址中,确定第二宿主机物理地址;将所述第一宿主机物理地址存储的数据复制至所述第二宿主机物理地址;将所述IOMMU的页表记录的所述虚拟机物理地址对应的宿主机物理地址更新为所述第二宿主机物理地址。
本申请实施例还提供一种存储有计算机指令的计算机可读存储介质,当所述计算机指令被一个或多个处理器执行时,致使所述一个或多个处理器执行上述内存换页方法中的步骤。
本申请实施例还提供一种计算机程序产品,包括:计算机程序;当所述计算机程序被处理器执行时,致使所述处理器执行上述内存换页方法中的步骤。
在本申请实施例中,针对不支持Page fault的IOMMU,VMM可确定需要页面更新的GPA,从宿主机的IOMMU存储的页表中,确定该GPA对应的第一HPA;并从宿主机内存的空闲物理地址中,确定替换第一HPA的第二HPA;进一步,可将第一HPA存储的数据复制至第二HPA;并将IOMMU的页表记录的需要更新的GPA对应的HPA更新为第二HPA,对不支持Page fault的IOMMU实现了页表更换。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例提供的计算系统的结构示意图;
图2和图3为本申请实施例提供的内存换页方法的流程示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例中,针对不支持Page fault的IOMMU,VMM可确定需要页面更新的GPA,从宿主机的IOMMU存储的页表中,确定该GPA对应的第一HPA;并从宿主机内存的空闲物理地址中,确定替换第一HPA的第二HPA;进一步,可将第一HPA存储的数据复制至第二HPA;并将IOMMU的页表记录的需要更新的GPA对应的HPA更新为第二HPA,对不支持Page fault的IOMMU实现了页表更换。
以下结合附图,详细说明本申请各实施例提供的技术方案。
应注意到:相同的标号在下面的附图以及实施例中表示同一物体,因此,一旦某一物体在一个附图或实施例中被定义,则在随后的附图和实施例中不需要对其进行进一步讨论。
图1为本申请实施例提供的计算系统的结构示意图。如图1所示,计算系统包括:宿主机10和虚拟机管理节点(VMM)20。
在本实施例中,宿主机10是指具有计算、存储及通信等功能的计算机设备,例如可以是服务端设备。例如,宿主机10可以是单一服务器设备,也可以为云化的服务器阵列等。当然,宿主机10也可以为手机、平板电脑、个人电脑、穿戴设备等终端设备。
在本实施例中,宿主机10部署有虚拟机(Virtual Machine,VM)101。其中,虚拟机101也可称为宿主机10的虚拟机(Guest)。VM 101有独立的CPU、内存、网络以及磁盘等。虚拟机101对应的CPU,也可称为虚拟机CPU,即图1所示的vCPU 101a。
在本实施例中,VMM 20是指对虚拟机进行管理的逻辑节点,可部署于宿主机10,也可部署于与宿主机10通信的其它物理机。对于VMM 20部署于宿主机10的实施例,VMM 20可运行于宿主机10的CPU(图1未示出)。VMM 20可对VM 101进行调度任务、负载均衡、状态监测等。
在直通(Pass through)技术中,VM 101可透过VMM 20,直接访问宿主机10挂载的I/O硬件,这样VM 101的I/O操作路径几乎和无虚拟化环境下的I/O路径相同。其中,I/O硬件即为直通设备102。直通设备102是指宿主机10挂载的I/O硬件设备,可包括:网卡、存储介质等。其中,存储介质可为磁盘、硬盘等可持久存储介质。
对于直通设备102,可通过直接内存访问(DMA)方式访问宿主机10的内存,即宿主机内存103。 对于DMA方式,直通设备102和宿主机内存103之间有一条数据通路,实现直通设备102和宿主机内存103直接的数据传输。在直通设备102和宿主机内存103之间数据传输过程中,不需要宿主机10的CPU 参与。
在虚拟化技术中,VM 101上运行的操作系统(guest OS)通常不知道它所访问的宿主机的物理内存地址,也可称为宿主机物理地址(Host physical address,HPA)。如果要进行DMA操作,就有可能破坏内存。因为直通设备102仅可获知虚拟机的物理内存地址,也可称为虚拟机物理地址(Guest physical address,GPA),并不知道GPA和HPA之间的映射关系。因此,在直通技术中引入IOMMU 104。
IOMMU 104可通信连接于直通设备102和宿主机内存103之间。可选地,IOMMU 104可通过串行接口总线,与直通设备102和宿主机内存103通信连接。串行接口总线可为PCI接口总线、PCIe接口总线等。IOMMU 104可保证直通设备102进行DMA操作时能够访问宿主机内存103。
对于没有IOMMU 104的宿主机,直通设备102通过DMA方式可以访问宿主机10的全部内存地址空间。对于设置有IOMMU 104的宿主机,虚拟机的CPU 101a可分配直通设备102可访问的GPA,并由VMM 20为GPA分配对应的HPA。IOMMU 104可维护GPA与HPA之间的映射表,该映射表也可称为页表。页表记录有GPA与HPA之间的映射关系。在直通设备102通过DMA方式访问宿主机10的内存时,VMM 20可捕获直通设备102发出的DMA请求,并将DMA请求透传给IOMMU 104。IOMMU 104可从DMA请求中获取待访问的GPA;之后,将待访问的GPA在IOMMU 104存储的页表中进行匹配,以得到待访问的GPA对应的HPA。对于直通设备102来说,可通过待访问的GPA对应的HPA访问宿主机内存103对应的内存空间。
在一些应用场景中,IOMMU 104存储的页表有页表更换需求。例如,某个或某些GPA对应的HPA发生变化时,需要更新IOMMU 104存储的页表。如,在冷热内存页更替场景中,对于热页若长时间不被使用可转为冷页,分配给DMA请求。这是因为对于DMA请求,需要连续的内存页,因此需要分配冷页。上述冷页表示该空闲页已经不再高速缓存中,热页表示该空闲页仍然在高速缓存中。
对于需要对IOMMU 104进行页表更换的场景,对于支持Page fault的IOMMU,可采用age fault方式更换IOMMU页表。VMM 20可在必要时从IOMMU存储的页表中回收物理内存,即回收HPA对应的内存;并将存储在物理内存中的数据存储在硬盘上的页表文件(PagingFile)中,这样能保证数据不丢失,同时释放的物理内存页面供其它进程使用。
当直通设备102再次需要访问回收的内存时,VMM 20可从Paging File中查找数据,分配空闲的物理内存页,并将数据写入物理内存页中,然后将新的物理内存页的HPA映射到进程需要操作的GPA对应的虚拟空间中,并写入IOMMU存储的页表中,获得访问所需的数据和内存空间。在OMMU存储的页表增加一个物理内存页对应的HPA,这就是一次PageFault。
对于不支持Page fault的IOMMU,本申请实施例提供一种新的内存换页方式,主要实施方式如下:
在本申请实施例中,VMM 20可确定需要页面更新的GPA。在本申请实施例中,不限定VMM 20确定需要页表更新的GPA(A)的具体实施方式。在一些实施例中,VMM 20可获取页表更新请求。其中,页表更新请求包含需要页表更新的GPA(A)。VMM 20获取的页表更新请求可为VM 101对应的用户端提供的页表更新请求。例如,在云计算领域,用户可向云服务端申请虚拟机资源,VM 101为云服务端为用户分配的虚拟机。相应地,用户端即为申请该虚拟机的用户侧的计算设备。或者,页表更新请求也可为云服务端的运维侧设备发送的页表更新请求;等等。
进一步,VMM 20可从页表更新请求中,获取需要页表更新的GPA(记为A)。进一步,VMM 20可从IOMMU 104存储的页表中,确定需要页表更新的GPA(A)对应的HPA,记为Pa。具体地,VMM 20可将需要页表更新的GPA(A)在IOMMU 104存储的页表中进行匹配,以得到需要页表更新的GPA(A)对应的HPA(Pa)。
由于需要页表更新的GPA(A)对应的HPA是需要被更换的HPA,因此,VMM 20还可从宿主机内存103的空闲物理地址中,确定另一HPA,记为Pr。在本申请实施例中,为了便于描述和区分,将需要页表更新的GPA(A)对应的HPA,定义为第一HPA(Pa);并将确定出的替换第一HPA的另一HPA,定义为第二HPA(记为Pr)。
可选地,VMM 20可从宿主机内存103的空闲物理地址中,任选一个空闲的物理地址,作为第二HPA(Pr)。或者,VMM 20可按照设定的内存页面置换算法,从宿主机内存103的空闲物理地址中,确定第二HPA(Pr)。内存页面置换算法包括但不局限于:最佳置换算法(OPT)、先进先出算法(FIFO)、最近最少使用算法(LRU)、时钟置换算法(CLOCK)或者改进型的时钟置换算法等。
其中,最佳置换算法(OPT)是指选择的页面以后永不使用的,或者是在最长时间内不再被访问的内存页,并将该内存页对应的HPA,作为第二HPA(Pr)。
先进先出算法(FIFO)是指将调入内存的内存页按照调入的先后顺序排成一个队列,选择最先进入内存的内存页对应的HPA,作为第二HPA(Pr)。
最近最少使用算法(LRU)是指选择出的内存页为最近未使用的内存页;并确定选择出的内存页对应的HPA,为第二HPA(Pr)。可选地,可用访问字段记录该内存页自上次被访问以来所经历的时间,当需要页表替换时,从空闲的内存页中,选择对应的时间值最大的内存页,作为最近未使用的内存页。
时钟置换算法(CLOCK)是指内存中的内存页通过链接指针,链接成一个循环队列,增加一个字段访问位字段。当某一内存页首次进入内存时,则将该页对应的访问位字段设置为1;当该页随后被访问到时,访问位字段也会被设置为1。该方法中,当需要内存换页时,操作系统扫描缓冲区,以查找访问位字段被置为0的内存页,并将扫描到的第一个被设置为-的内存页对应的HPA,作为第二HPA(Pr)。
上述实施例列举的确定HPA的方式仅为示例性说明,并不构成限定。
在确定出替换第一HPA(Pa)的第二HPA(Pr)之后,VMM 20可将第一HPA(Pa)存储的数据复制至第二HPA(Pr);并将IOMMU 104的页表记录的需要页表更新的GPA(A)对应的HPA更新为第二HPA(Pr)。
在本实施例提供的计算系统中,针对不支持Page fault的IOMMU,VMM可确定需要页面更新的GPA,从宿主机的IOMMU存储的页表中,确定该GPA对应的第一HPA;并从宿主机内存的空闲物理地址中,确定替换第一HPA的第二HPA;进一步,可将第一HPA存储的数据复制至第二HPA;并将IOMMU的页表记录的需要更新的GPA对应的HPA更新为第二HPA,对不支持Page fault的IOMMU实现了页表更换。
进一步,在对IOMMU页表更换之后,还可将IOMMU 104的页表刷新到输入/输出转译后备缓冲区(Input/Output Translation Lookaside Buffer,IOTLB)。
其中,IOTLB具有固定数目的空间槽,用于存放将虚拟地址映射至物理地址的页表,即上述IOMMU 104的页表。其搜索关键字为虚拟机的物理内存地址,其搜索结果为宿主机的物理地址(HPA)。如果DMA请求的虚拟机物理地址(GPA)在IOTLB中存在,可提高地址翻译速率,之后就可以使用得到的宿主机物理地址(HPA)访问宿主机内存。
在直通技术领域中,如图1所示,宿主机10不仅支持直通设备102对宿主机内存的访问,还支持虚拟机的CPU(vCPU 101a)对宿主机内存的访问。vCPU 101a可申请虚拟机的地址空间(Virtual Address Space,VAS),即GPA。由于VAS不是真正的物理内存空间,操作系统必须将VAS映射到物理内存空间,进程才能存储进程上下文(process context)。
对于宿主机10可设置内存管理单元(MMU)105。MMU 105维护的页表记录有虚拟机物理地址与宿主机物理地址之间的对应关系。MMU 105可基于页表记录的虚拟机物理地址与宿主机物理地址之间的对应关系,将vCPU 101a访问的GPA转换为HPA,这样,vCPU 101a可访问HPA对应的内存空间。
在本申请实施例中,在IOMMU 104更新页表时,需要同步更新MMU 105的页表。这是因为若对IOMMU 104更新页表中的HPA进行更新,MMU 105中的页表不同步更新,会导致需要页表更新的GPA(A)在IOMMU 104的页表和MMU 105中的页表对应不同的HPA;而在IOMMU 104更新页表中的HPA后,已将原HPA(第一HPA)存储的数据更新到替换后的HPA(第二HPA),原HPA已释放或已存储其它数据,这样会导致MMU 105访问上述需要页面更新的GPA时,仍然会访问第一HPA(Pa),导致访问缺页或错误。
基于上述分析,在本申请实施例中,VMM 20在确定需要页表更新的GPA(A)之后,还可从MMU 105的页表中,删除需要更新的GPA;并阻塞vCPU 101a对需要页表更新的GPA(A)的访问。
由于MMU 105支持page fault,因此,VMM 20可在执行page fault(页表中断)流程时,阻塞vCPU 101a对需要页表更新的GPA(A)的访问。具体地,VMM 20在获取vCPU 101a对需要页表更新的GPA(A)的访问请求时,可利用需要页表更新的GPA(A)查询MMU 105的页表。由于MMU 105的页表中已删除需要页表更新的GPA(A),因此,在MMU 105的页表中不能查询到需要页表更新的GPA(A)对应的HPA,可触发MMU 105的页表中断流程。即在MMU 105的页表中未查询到需要页表更新的GPA(A)对应的HPA的情况下,执行页表中断流程。在本申请实施例中,为了阻塞vCPU 101a对需要页表更新的GPA(A)的访问,可在执行页表中断流程的过程中,对MMU 105的页表更换进行加锁处理,进而阻塞vCPU 101a对需要页表更新的GPA(A)的访问。如果不对MMU 105的页表更换进行加锁处理,MMU 105执行页表中断流程,将会为MMU105页表记录的需要更新的GPA重新分配HPA,极易导致同一GPA在MMU 105页表和IOMMU 104的页表中对应的HPA不一致。
进一步,在IOMMU 104的页表更新完成之后,可在MMU 105的页表中添加上述需要更新的GPA,并将需要更新的GPA对应的HPA更新为第二HPA(Pr)。进一步,可恢复vCPU 101a对上述需要更新的GPA的访问。
在一些实施例中,在IOMMU的页表更新过程中,对于需要页表更新的GPA(A)对应的HPA存储的数据可能存在数据更新。用户对需要页表更新的GPA(A)对应的HPA存储的数据的更新,VMM 20是无感知的。因此,VMM 20无法确定该数据更新是发生在IOMMU的页表更新之后,还是发生在IOMMU的页表更新过程中。若需要页表更新的GPA(A)对应的HPA存储的数据产生更新,发生在已完成将第一HPA(Pa)存储的数据复制至第二HPA(Pr)之后,但在将IOMMU104的页表记录的需要页表更新的GPA(A)对应的HPA更新为第二HPA(Pr)之前,则对需要页表更新的GPA(A)对应的HPA存储的数据的更新,是对第一HPA(Pa)存储的数据进行更新的,导致第二HPA(Pr)存储的数据为更新前的数据,无法实现数据同步更新。
为了解决上述问题,在本申请一些实施例中,还可申请用于临时存储第二HPA(Pr)中数据的快照的第三HPA(Ps)。具体地,可从宿主机内存的空闲物理地址中,确定第三HPA(Ps);并在第一HPA(Pa)存储的数据复制至第二HPA(Pr)之后,将第二HPA(Pr)存储的数据复制至第三HPA(Ps),即第三HPA(Ps)存储的数据为第二HPA(Pr)存储的数据的快照。
进一步,可比较第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据是否相同。可选地,可以字节为单位,逐字节比较第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据是否相同。若第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据相同,说明在IOMMU页表更新过程中,需要页表更新的GPA(A)对应的HPA存储的数据未更新。因此,在第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据相同的情况下,可释放第三宿主机物理地址对应的内存空间。进一步,还可在MMU 105的页表中添加上述需要更新的GPA,并将需要更新的GPA对应的HPA更新为第二HPA(Pr)。进一步,可恢复vCPU 101a对上述需要更新的GPA的访问。
若第一HPA(Pa)存储的数据与第二HPA(Pr)存储的数据存在不同数据,说明在IOMMU页表更新过程中,需要页表更新的GPA(A)对应的HPA存储的数据发生更新。由于VMM20无法感知HPA存储的数据发生更新的时机,因此,本申请实施例中,还需要确定需要页表更新的GPA(A)对应的HPA存储的数据发生更新的时机。若需要页表更新的GPA(A)对应的HPA存储的数据发生更新,发生在IOMMU 104的页表记录的第一HPA(Pa)更新为第二HPA(Pr)之后,说明发生数据更新的HPA为第二HPA(Pr)。由于IOMMU 104的页表记录的需要页表更新的GPA(A)对应的HPA已为第二HPA(Pr),因此,直通设备102在访问需要页表更新的GPA(A)时,访问的是第二HPA(Pr)的内存空间,访问的是更新后的数据,访问准确度较高。
相应地,若需要页表更新的GPA(A)对应的HPA存储的数据发生更新,发生在第一HPA(Pa)的数据复制至第二HPA(Pr)之后,但在IOMMU 104的页表记录的第一HPA(Pa)更新为第二HPA(Pr)之前,说明发生数据更新的HPA为第一HPA(Pa),而第二HPA(Pr)存储的数据为更新前的数据。这样,在IOMMU 104的页表记录的第一HPA(Pa)更新为第二HPA(Pr)之后,直通设备102在访问需要页表更新的GPA(A)时,访问的是第二HPA(Pr)的内存空间,访问的是更新前的数据,访问准确度较低。
基于上述分析,在本申请实施例中,在第一HPA(Pa)存储的数据与第二HPA(Pr)存储的数据存在不同数据的情况下,可确定数据不同的逻辑地址。其中,逻辑地址是指数据不同的数据在HPA中的相对地址。例如第N个字节的数据不同等。
在本实施例中,针对数据不同的第一逻辑地址b,可判断第二HPA(Pr)存储的数据处于第一逻辑地址b的数据Pr(b),是否与第三HPA(Ps)存储的数据处于第一逻辑地址b的数据Ps(b)是否相同。若判断结果为否,即Pr(b)不等于Ps(b),说明发生数据更新的为第二HPA(Pr)。由于直通设备102在访问需要页表更新的GPA(A)时,访问的是第二HPA(Pr)的内存空间,访问的是更新后的数据,因此,在Pr(b)不等于Ps(b)的情况下,可释放第三HPA(Ps)对应的内存空间。进一步,还可在MMU 105的页表中添加上述需要更新的GPA,并将需要更新的GPA对应的HPA更新为第二HPA(Pr)。进一步,可恢复vCPU 101a对上述需要更新的GPA的访问。
相应地,在第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据存在不同数据的情况下,若Pr(b)等于Ps(b),由于Pa(b)不等于Ps(b),说明发生数据更新的为第一HPA(Pa),即数据更新发生在第一HPA(Pa)的数据复制至第二HPA(Pr)之后,但在IOMMU 104的页表记录的第一HPA(Pa)更新为第二HPA(Pr)之前。因此,在在第一HPA(Pa)存储的数据与第二HPA(Pr)存储的数据存在不同数据的情况下,若Pr(b)等于Ps(b),可将第二HPA(Pr)存储的数据中处于第一逻辑地址b的数据更新为第一宿主机物理地址存储的数据中处于第一逻辑地址b的数据,即将Pr(b)更新为Pa(b)。进一步,可释放第三HPA(Ps)对应的内存空间。进一步,还可在MMU 105的页表中添加上述需要更新的GPA,并将需要更新的GPA对应的HPA更新为第二HPA(Pr)。进一步,可恢复vCPU 101a对上述需要更新的GPA的访问。
上述在第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据存在不同数据的情况下,进行的逻辑步骤可由原子指令完成。在原子指令执行过程中,不会被线程调度机制打断的操作;这种操作一旦开始,就一直运行到结束,中间不会有任何 context switch (切换到另一个线程)。这样,可保证在第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据存在不同数据的情况下,执行逻辑步骤不会被打断,可保证在对执行逻辑步骤的过程中,第二HPA(Pr)中的数据不会被再次更新。原子指令可保证IOMMU页表更新时的页表修改时序,在直通设备102的DMA写请求并发时,依然可保证第一HPA(Pa)存储的数据与第二HPA(Pr)存储的数据存在不同数据的情况下,进行的逻辑步骤的原子性。
为了确保在第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据存在不同数据的情况下,执行的逻辑步骤的准确度,本申请实施例还可限定直通设备102对每个HPA最多只能写一次。这是因为若直通设备102可对HPA写多次,若需要页表更新的GPA(A)对应的HPA存储的数据的更新发生多次,假设GPA(A)对应的HPA存储的数据的更新一次发生在第一HPA(Pa)的数据复制至第二HPA(Pr)之后,但在IOMMU 104的页表记录的第一HPA(Pa)更新为第二HPA(Pr)之前,2次发生在IOMMU 104的页表记录的第一HPA(Pa)更新为第二HPA(Pr)之后。其中,发生在第一HPA(Pa)的数据复制至第二HPA(Pr)之后,但在IOMMU 104的页表记录的第一HPA(Pa)更新为第二HPA(Pr)之前的一次数据更新,更新的为第一HPA(Pa)的数据;发生在IOMMU 104的页表记录的第一HPA(Pa)更新为第二HPA(Pr)之后的2次数据更新,更新的是第二HPA(Pr)的数据。假设这3次数据更新,更新的都是逻辑地址c的数据。假设更新后的Pa(c)=3;而第二HPA(Pr)中逻辑地址c的数据发生2次更新后更新为原数据。例如,第二HPA(Pr)中逻辑地址c的原数据Pr(c)=1;第一次更新后Pr(c)=2;第二次更新后Pr(c)=1。第三HPA(Ps)中存储的数据为第二HPA(Pr)存储的原数据的快照,即Pr(c)=1。这样,Ps(c)不等于Pa(c),但Ps(c)= Pr(c),则应该执行将Pr(c)更新为Pa(c)的步骤。若将Pr(c)更新为Pa(c),则会导致Pr(c)发生错误,因为对第二HPA(Pr)的逻辑地址c进行数据更新,比对第一HPA(Pa)的逻辑地址c进行数据更新较晚。因此,在本申请实施例中,限定直通设备102对每个HPA最多只能写一次。这样,就可防止出现上述数据更新错误的问题。
除了上述系统实施例之外,本申请实施例还提供相应的内存换页方法。下面结合具体实施例进行示例性说明。
图2为本申请实施例提供的内存换页方法的流程示意图。如图2所示,内存换页方法包括:
S201、确定需要页表更新的GPA(A)。
S202、从宿主机的IOMMU存储的页表中,确定GPA(A)对应的第一HPA。
S203、从宿主机内存的空闲物理地址中,确定第二HPA。
S204、将第一HPA存储的数据复制至第二HPA。
S205、将IOMMU的页表记录的GPA(A)对应的HPA更新为第二HPA。
在本实施例中,对于不支持Page fault的IOMMU,在步骤S201中,可确定需要页面更新的GPA。在本申请实施例中,不限定确定需要页表更新的GPA(A)的具体实施方式。在一些实施例中,可获取页表更新请求。进一步,可从页表更新请求中,获取需要页表更新的GPA(记为A)。
进一步,在步骤S202中,可从IOMMU存储的页表中,确定需要页表更新的GPA(A)对应的第一HPA,记为Pa。
由于需要页表更新的GPA(A)对应的HPA是需要被更换的HPA,因此,在步骤S203中,还可从宿主机内存的空闲物理地址中,确定第二HPA,记为Pr。关于步骤S203的具体实施方式,可参见上述系统实施例的相关内容,在此不再赘述。
在确定出替换第一HPA(Pa)的第二HPA(Pr)之后,在步骤S204中,可将第一HPA(Pa)存储的数据复制至第二HPA(Pr);并在步骤S205中,将IOMMU 的页表记录的需要页表更新的GPA(A)对应的HPA更新为第二HPA(Pr)。
在本实施例中,针对不支持Page fault的IOMMU,VMM可确定需要页面更新的GPA,从宿主机的IOMMU存储的页表中,确定该GPA对应的第一HPA;并从宿主机内存的空闲物理地址中,确定替换第一HPA的第二HPA;进一步,可将第一HPA存储的数据复制至第二HPA;并将IOMMU的页表记录的需要更新的GPA对应的HPA更新为第二HPA,对不支持Page fault的IOMMU实现了页表更换。
进一步,在对IOMMU页表更换之后,还可将IOMMU的页表刷新到IOTLB。这样,在直通设备访问宿主机内存时,对于直通设备发出的DMA请求,可优先在IOTLB中进行匹配。如果DMA请求的虚拟机物理地址(GPA)在IOTLB中存在,可提高地址翻译速率,之后就可以使用得到的宿主机物理地址(HPA)访问宿主机内存。
在直通技术领域中,宿主机不仅支持直通设备对宿主机内存的访问,还支持虚拟机的CPU(vCPU)对宿主机内存的访问。对于宿主机可设置内存管理单元(MMU)。MMU维护的页表记录有虚拟机物理地址与宿主机物理地址之间的对应关系。MMU可基于页表记录的虚拟机物理地址与宿主机物理地址之间的对应关系,将vCPU访问的GPA转换为HPA,这样,vCPU可访问HPA对应的内存空间。
在本申请实施例中,在IOMMU更新页表时,需要同步更新MMU的页表。因此,在步骤S201之后,还可从MMU的页表中,删除需要更新的GPA;并阻塞vCPU对需要页表更新的GPA(A)的访问。
由于MMU支持page fault,因此,可在执行page fault(页表中断)流程时,阻塞vCPU对需要页表更新的GPA(A)的访问。具体地,VMM在获取vCPU对需要页表更新的GPA(A)的访问请求时,可利用需要页表更新的GPA(A)查询MMU的页表。由于MMU的页表中已删除需要页表更新的GPA(A),因此,在MMU的页表中不能查询到需要页表更新的GPA(A)对应的HPA,可触发MMU的页表中断流程。即在MMU的页表中未查询到需要页表更新的GPA(A)对应的HPA的情况下,执行页表中断流程。在本申请实施例中,为了阻塞vCPU对需要页表更新的GPA(A)的访问,可在执行页表中断流程的过程中,对MMU的页表更换进行加锁处理,进而阻塞vCPU对需要页表更新的GPA(A)的访问。
进一步,在IOMMU的页表更新完成之后,可在MMU的页表中添加上述需要更新的GPA,并将需要更新的GPA对应的HPA更新为第二HPA(Pr)。进一步,可恢复vCPU对上述需要更新的GPA的访问。
在一些实施例中,在IOMMU的页表更新过程中,对于需要页表更新的GPA(A)对应的HPA存储的数据可能存在数据更新。用户对需要页表更新的GPA(A)对应的HPA存储的数据的更新,VMM是无感知的。因此,VMM 20无法确定该数据更新是发生在IOMMU的页表更新之后,还是发生在IOMMU的页表更新过程中。若需要页表更新的GPA(A)对应的HPA存储的数据产生更新,发生在已完成将第一HPA(Pa)存储的数据复制至第二HPA(Pr)之后,但在将IOMMU的页表记录的需要页表更新的GPA(A)对应的HPA更新为第二HPA(Pr)之前,则对需要页表更新的GPA(A)对应的HPA存储的数据的更新,是对第一HPA(Pa)存储的数据进行更新的,导致第二HPA(Pr)存储的数据为更新前的数据,无法实现数据同步更新。
为了解决上述问题,在本申请一些实施例中,还可申请用于临时存储第二HPA(Pr)中数据的快照的第三HPA(Ps)。具体地,可从宿主机内存的空闲物理地址中,确定第三HPA(Ps);并在第一HPA(Pa)存储的数据复制至第二HPA(Pr)之后,将第二HPA(Pr)存储的数据复制至第三HPA(Ps),即第三HPA(Ps)存储的数据为第二HPA(Pr)存储的数据的快照。
进一步,可比较第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据是否相同。可选地,可以字节为单位,逐字节比较第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据是否相同。若第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据相同,说明在IOMMU页表更新过程中,需要页表更新的GPA(A)对应的HPA存储的数据未更新。因此,在第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据相同的情况下,可释放第三宿主机物理地址对应的内存空间。进一步,还可在MMU的页表中添加上述需要更新的GPA,并将需要更新的GPA对应的HPA更新为第二HPA(Pr)。进一步,可恢复vCPU对上述需要更新的GPA的访问。
若第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据存在不同数据,说明在IOMMU页表更新过程中,需要页表更新的GPA(A)对应的HPA存储的数据发生更新。在本申请实施例中,在第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据存在不同数据的情况下,可确定数据不同的逻辑地址。其中,逻辑地址是指数据不同的数据在HPA中的相对地址。例如第N个字节的数据不同等。
在本实施例中,针对数据不同的第一逻辑地址b,可判断第二HPA(Pr)存储的数据处于第一逻辑地址b的数据Pr(b),是否与第三HPA(Ps)存储的数据处于第一逻辑地址b的数据Ps(b)是否相同。若判断结果为否,即Pr(b)不等于Ps(b),说明发生数据更新的为第二HPA(Pr)。由于直通设备102在访问需要页表更新的GPA(A)时,访问的是第二HPA(Pr)的内存空间,访问的是更新后的数据,因此,在Pr(b)不等于Ps(b)的情况下,可释放第三HPA(Ps)对应的内存空间。进一步,还可在MMU的页表中添加上述需要更新的GPA,并将需要更新的GPA对应的HPA更新为第二HPA(Pr)。进一步,可恢复vCPU对上述需要更新的GPA的访问。
相应地,在第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据存在不同数据的情况下,若Pr(b)等于Ps(b),由于Pa(b)不等于Ps(b),说明发生数据更新的为第一HPA(Pa),即数据更新发生在第一HPA(Pa)的数据复制至第二HPA(Pr)之后,但在IOMMU的页表记录的第一HPA(Pa)更新为第二HPA(Pr)之前。因此,在在第一HPA(Pa)存储的数据与第二HPA(Pr)存储的数据存在不同数据的情况下,若Pr(b)等于Ps(b),可将第二HPA(Pr)存储的数据中处于第一逻辑地址b的数据更新为第一宿主机物理地址存储的数据中处于第一逻辑地址b的数据,即将Pr(b)更新为Pa(b)。进一步,可释放第三HPA(Ps)对应的内存空间。进一步,还可在MMU的页表中添加上述需要更新的GPA,并将需要更新的GPA对应的HPA更新为第二HPA(Pr)。进一步,可恢复vCPU对上述需要更新的GPA的访问。
为了清楚说明上述内存换页方法的具体实施方式,下面结合图3所示的具体实施例对内存换页方法进行示例性说明。如图3所示,该内存换页方法主要包括:
S1、确定需要页表更新的GPA(A)。
S2、从宿主机的MMU的页表中,删除需要页表更新的GPA(A)。
S3、阻塞虚拟机的CPU对GPA(A)的访问。
S4、从宿主机的IOMMU存储的页表中,确定GPA(A)对应的第一HPA(Pa)。
S5、从宿主机内存的空闲物理地址中,确定第二HPA(Pr)。
S6、从宿主机内存的空闲物理地址中,确定第三HPA(Ps)。
S7、将第一HPA(Pa)存储的数据复制至第二HPA(Pr),并将第二HPA(Pr)存储的数据复制至第三HPA(Ps)。
S8、将IOMMU的页表记录的GPA(A)对应的HPA更新为第二HPA(Pr);并刷新IOTLB。
S9、以字节为单位,逐字节比较第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据是否相同。若相同,执行步骤S12。若存在数据不同的情况,执行步骤S10。
S10、针对数据不同的第一逻辑地址b,判断第二HPA(Pr)存储的数据中处于第一逻辑地址b的数据Pr(b),是否与第三HPA(Ps)存储的数据中处于第一逻辑地址b的数据Ps(b)相同。即判断Pr(b)与Ps(b)是否相同。若判断结果为否,执行步骤S12。若判断结果为是,执行步骤S11。
S11、将第二HPA存储的数据中处于第一逻辑地址b的数据Pr(b),更新为第一HPA存储的数据中处于第一逻辑地址b的数据Pa(b);即Pr(b)=Pa(b)。接着执行步骤S12。
S12、释放第三HPA(Ps)对应的内存空间。
S13、在MMU的页表中添加GPA(A),并将MMU的页表记录的GPA(A)对应的HPA更新为第二HPA(Pr)。
上述在第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据存在不同数据的情况下,进行的逻辑步骤,即步骤S10和S11可由原子指令完成。具体原因可参见上述系统实施例的相关内容,在此不再赘述。
为了确保在第一HPA(Pa)存储的数据与第三HPA(Ps)存储的数据存在不同数据的情况下,执行的逻辑步骤S10和S11的准确度,本申请实施例还可限定直通设备对每个HPA最多只能写一次。具体原因分析可参见上述系统实施例的相关内容,在此不再赘述。
需要说明的是,上述实施例所提供方法的各步骤的执行主体均可以是同一设备,或者,该方法也由不同设备作为执行主体。比如,步骤S201和S202的执行主体可以为设备A;又比如,步骤S201的执行主体可以为设备A,步骤S202的执行主体可以为设备B;等等。
另外,在上述实施例及附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如S201、S202等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。
相应地,本申请实施例还提供一种存储有计算机指令的计算机可读存储介质,当计算机指令被一个或多个处理器执行时,致使一个或多个处理器执行上述内存换页方法中的步骤。
本申请实施例还提供一种计算机程序产品,包括:计算机程序;当计算机程序被处理器执行时,致使处理器执行上述内存换页方法中的步骤。在本申请实施例中,不限定计算机程序的实现形态。在一些实施例中,计算机程序产品可实现为虚拟机管理程序。可选地,该虚拟机管理程序可运行于虚拟机的宿主机的CPU上。
需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器 (CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器 (RAM) 和/或非易失性内存等形式,如只读存储器 (ROM) 或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机的存储介质为可读存储介质,也可称为可读介质。可读存储介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (PRAM)、静态随机存取存储器 (SRAM)、动态随机存取存储器 (DRAM)、其他类型的随机存取存储器 (RAM)、只读存储器 (ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器 (CD-ROM)、数字多功能光盘(DVD) 或其他光学存储、磁盒式磁带,磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体 (transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (11)

1.一种内存换页方法,其特征在于,包括:
确定需要页表更新的虚拟机物理地址;
从宿主机的IOMMU存储的页表中,确定所述虚拟机物理地址对应的第一宿主机物理地址;
从宿主机内存的空闲物理地址中,确定第二宿主机物理地址;
将所述第一宿主机物理地址存储的数据复制至所述第二宿主机物理地址;
将所述IOMMU的页表记录的所述虚拟机物理地址对应的宿主机物理地址更新为所述第二宿主机物理地址。
2.根据权利要求1所述的方法,其特征在于,还包括:
从所述宿主机的MMU的页表中,删除所述虚拟机物理地址;
阻塞虚拟机的CPU对所述虚拟机物理地址的访问。
3.根据权利要求2所述的方法,其特征在于,所述阻塞所述CPU对所述虚拟机物理地址的访问,包括:
获取所述CPU对所述虚拟机物理地址的访问请求;
利用所述虚拟机物理地址查询所述MMU的页表;
在所述MMU的页表中未查询到所述虚拟机物理地址对应的宿主机物理地址的情况下,执行页表中断流程;
在执行页表中断流程的过程中,对所述MMU的页表更换进程进行加锁处理,以阻塞所述CPU对所述虚拟机物理地址的访问。
4.根据权利要求2所述的方法,其特征在于,还包括:
从所述宿主机内存的空闲物理地址中,确定第三宿主机物理地址;
在将所述第一宿主机物理地址存储的数据复制至所述第二宿主机物理地址之后,将所述第二宿主机物理地址存储的数据复制至所述第三宿主机物理地址;
在所述第一宿主机物理地址存储的数据与所述第三宿主机物理地址存储的数据相同的情况下,释放所述第三宿主机物理地址对应的内存空间;
将所述MMU的页表记录的所述虚拟机物理地址对应的宿主机物理地址更新为所述第二宿主机物理地址。
5.根据权利要求4所述的方法,其特征在于,还包括:
在所述第一宿主机物理地址存储的数据与所述第三宿主机物理地址存储的数据存在不同数据的情况下,针对数据不同的第一逻辑地址,判断所述第二宿主机物理地址存储的数据中处于所述第一逻辑地址的数据,是否与所述第三宿主机物理地址存储的数据中处于所述第一逻辑地址的数据相同;
若判断结果为否,释放所述第三宿主机物理地址对应的内存空间;
将所述MMU的页表记录的所述虚拟机物理地址对应的宿主机物理地址更新为所述第二宿主机物理地址。
6.根据权利要求5所述的方法,其特征在于,还包括:
若判断结果为是,将所述第二宿主机物理地址存储的数据中处于所述第一逻辑地址的数据,更新为所述第一宿主机物理地址存储的数据中处于所述第一逻辑地址的数据;
释放所述第三宿主机物理地址对应的内存空间;
将所述MMU的页表记录的所述虚拟机物理地址对应的宿主机物理地址更新为所述第二宿主机物理地址。
7.根据权利要求4所述的方法,其特征在于,还包括:
以字节为单位,比较所述第一宿主机物理地址存储的数据与所述第三宿主机物理地址存储的数据。
8.根据权利要求5或6所述的方法,其特征在于,还包括:
在将所述MMU的页表记录的所述虚拟机物理地址对应的宿主机物理地址更新为所述第二宿主机物理地址之后,恢复所述虚拟机的CPU对所述虚拟机物理地址的访问。
9.根据权利要求1所述的方法,其特征在于,所述确定需要页表更新的虚拟机物理地址,包括:
获取页表更新请求;从所述页表更新请求中获取需要页表更新的虚拟机物理地址。
10.一种计算系统,其特征在于,包括:宿主机和虚拟机管理节点;
所述宿主机部署有虚拟机,并挂载有所述虚拟机直通的直通设备;所述宿主机还包括:IOMMU;所述IOMMU存储的页表记录有虚拟机的虚拟机物理地址与宿主机物理地址之间的对应关系;所述直通设备基于所述虚拟机的虚拟机物理地址与宿主机物理地址之间的对应关系,访问所述宿主机的内存;
所述虚拟机管理节点,用于:确定需要页表更新的虚拟机物理地址;从所述IOMMU存储的页表中,确定所述虚拟机物理地址对应的第一宿主机物理地址;从宿主机内存的空闲物理地址中,确定第二宿主机物理地址;将所述第一宿主机物理地址存储的数据复制至所述第二宿主机物理地址;将所述IOMMU的页表记录的所述虚拟机物理地址对应的宿主机物理地址更新为所述第二宿主机物理地址。
11.一种存储有计算机指令的计算机可读存储介质,其特征在于,当所述计算机指令被一个或多个处理器执行时,致使所述一个或多个处理器执行权利要求1-9任一项所述方法中的步骤。
CN202210150479.1A 2022-02-18 2022-02-18 内存换页方法、系统及存储介质 Active CN114201269B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210150479.1A CN114201269B (zh) 2022-02-18 2022-02-18 内存换页方法、系统及存储介质
PCT/CN2023/074406 WO2023155694A1 (zh) 2022-02-18 2023-02-03 内存换页方法、系统及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210150479.1A CN114201269B (zh) 2022-02-18 2022-02-18 内存换页方法、系统及存储介质

Publications (2)

Publication Number Publication Date
CN114201269A true CN114201269A (zh) 2022-03-18
CN114201269B CN114201269B (zh) 2022-08-26

Family

ID=80645531

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210150479.1A Active CN114201269B (zh) 2022-02-18 2022-02-18 内存换页方法、系统及存储介质

Country Status (2)

Country Link
CN (1) CN114201269B (zh)
WO (1) WO2023155694A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023155694A1 (zh) * 2022-02-18 2023-08-24 阿里云计算有限公司 内存换页方法、系统及存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101484883A (zh) * 2006-06-30 2009-07-15 英特尔公司 用于重新映射图形数据的存储器地址的装置和方法
US20100161875A1 (en) * 2008-12-10 2010-06-24 International Business Machines Corporation Simulator and simulating method for running guest program in host
CN102473139A (zh) * 2009-07-24 2012-05-23 超威半导体公司 包括用于i/o和计算卸载的多层次地址转换的i/o存储器管理单元
CN102498478A (zh) * 2009-07-24 2012-06-13 超威半导体公司 在外围互连上对i/o和计算卸载设备使用两级地址转换的iommu
CN103597451A (zh) * 2011-03-31 2014-02-19 英特尔公司 用于高可用性的存储器镜像和冗余生成
CN105095094A (zh) * 2014-05-06 2015-11-25 华为技术有限公司 内存管理方法和设备
CN107193759A (zh) * 2017-04-18 2017-09-22 上海交通大学 设备内存管理单元的虚拟化方法
CN107454958A (zh) * 2015-04-09 2017-12-08 威睿公司 使用多个嵌套页表隔离客户机代码和数据
CN107667350A (zh) * 2015-06-15 2018-02-06 英特尔公司 基于虚拟化的平台保护技术
CN111190752A (zh) * 2019-12-30 2020-05-22 海光信息技术有限公司 虚拟机共享内核内存的方法及装置
US10691365B1 (en) * 2019-01-30 2020-06-23 Red Hat, Inc. Dynamic memory locality for guest memory
CN112241310A (zh) * 2020-10-21 2021-01-19 海光信息技术股份有限公司 页表管理、信息获取方法、处理器、芯片、设备及介质
CN112363824A (zh) * 2020-10-12 2021-02-12 北京大学 一种申威架构下的内存虚拟化方法与系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112925606A (zh) * 2019-12-06 2021-06-08 阿里巴巴集团控股有限公司 一种内存管理方法、装置及设备
CN111966468B (zh) * 2020-08-28 2021-10-26 海光信息技术股份有限公司 用于直通设备的方法、系统、安全处理器和存储介质
CN114201269B (zh) * 2022-02-18 2022-08-26 阿里云计算有限公司 内存换页方法、系统及存储介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101484883A (zh) * 2006-06-30 2009-07-15 英特尔公司 用于重新映射图形数据的存储器地址的装置和方法
US20100161875A1 (en) * 2008-12-10 2010-06-24 International Business Machines Corporation Simulator and simulating method for running guest program in host
CN102473139A (zh) * 2009-07-24 2012-05-23 超威半导体公司 包括用于i/o和计算卸载的多层次地址转换的i/o存储器管理单元
CN102498478A (zh) * 2009-07-24 2012-06-13 超威半导体公司 在外围互连上对i/o和计算卸载设备使用两级地址转换的iommu
CN103597451A (zh) * 2011-03-31 2014-02-19 英特尔公司 用于高可用性的存储器镜像和冗余生成
CN105095094A (zh) * 2014-05-06 2015-11-25 华为技术有限公司 内存管理方法和设备
CN107454958A (zh) * 2015-04-09 2017-12-08 威睿公司 使用多个嵌套页表隔离客户机代码和数据
CN107667350A (zh) * 2015-06-15 2018-02-06 英特尔公司 基于虚拟化的平台保护技术
CN107193759A (zh) * 2017-04-18 2017-09-22 上海交通大学 设备内存管理单元的虚拟化方法
US10691365B1 (en) * 2019-01-30 2020-06-23 Red Hat, Inc. Dynamic memory locality for guest memory
CN111190752A (zh) * 2019-12-30 2020-05-22 海光信息技术有限公司 虚拟机共享内核内存的方法及装置
CN112363824A (zh) * 2020-10-12 2021-02-12 北京大学 一种申威架构下的内存虚拟化方法与系统
CN112241310A (zh) * 2020-10-21 2021-01-19 海光信息技术股份有限公司 页表管理、信息获取方法、处理器、芯片、设备及介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
YU XU,JIANGUO YAO,YAOZU DONG,KUN TIAN,XIAO ZHENG: "Demon: An Efficient Solution for on-Device MMU Virtualization in Mediated Pass-Through", 《ACM》, 25 March 2018 (2018-03-25) *
唐宏伟: "虚拟机安全保障及其性能优化关键技术研究", 《中国博士学位论文全文数据库 信息科技辑》 *
唐宏伟: "虚拟机安全保障及其性能优化关键技术研究", 《中国博士学位论文全文数据库 信息科技辑》, vol. 2018, no. 1, 15 January 2018 (2018-01-15) *
徐宇: "受控直通技术在设备内存虚拟化中的研究与优化", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》, vol. 2020, no. 01, 15 January 2020 (2020-01-15) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023155694A1 (zh) * 2022-02-18 2023-08-24 阿里云计算有限公司 内存换页方法、系统及存储介质

Also Published As

Publication number Publication date
CN114201269B (zh) 2022-08-26
WO2023155694A1 (zh) 2023-08-24

Similar Documents

Publication Publication Date Title
US11500689B2 (en) Communication method and apparatus
US7831977B2 (en) Shared file system cache in a virtual machine or LPAR environment
US10437865B1 (en) Computer storage deduplication
US7472249B2 (en) Kernel memory free algorithm
US10521354B2 (en) Computing apparatus and method with persistent memory
US9760493B1 (en) System and methods of a CPU-efficient cache replacement algorithm
US20150067283A1 (en) Image Deduplication of Guest Virtual Machines
US10169088B2 (en) Lockless free memory ballooning for virtual machines
JP2009151650A (ja) 計算機仮想化装置、そのプログラム、及びその方法
Peleg et al. Utilizing the {IOMMU} scalably
US11188365B2 (en) Memory overcommit by speculative fault
CN111290827A (zh) 数据处理的方法、装置和服务器
CN107408132B (zh) 跨越多个类型的存储器移动分层数据对象的方法和系统
Caldwell et al. Fluidmem: Full, flexible, and fast memory disaggregation for the cloud
US8898413B2 (en) Point-in-time copying of virtual storage
CN114201269B (zh) 内存换页方法、系统及存储介质
US7500074B2 (en) Identifying relocatable kernel mappings
US11210236B2 (en) Managing global counters using local delta counters
US8892838B2 (en) Point-in-time copying of virtual storage and point-in-time dumping
US11544194B1 (en) Coherence-based cache-line Copy-on-Write
Paulo et al. Distributed exact deduplication for primary storage infrastructures
US11093169B1 (en) Lockless metadata binary tree access
US11755537B2 (en) Optimizing file access statistics collection
US11435935B2 (en) Shrinking segment cleaning algorithm in an object storage
WO2023093380A1 (zh) 一种转址旁路缓存的维护方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40070328

Country of ref document: HK