CN115413338A - 在计算环境中提供加速器与存储装置之间的直接数据访问 - Google Patents

在计算环境中提供加速器与存储装置之间的直接数据访问 Download PDF

Info

Publication number
CN115413338A
CN115413338A CN202080073393.2A CN202080073393A CN115413338A CN 115413338 A CN115413338 A CN 115413338A CN 202080073393 A CN202080073393 A CN 202080073393A CN 115413338 A CN115413338 A CN 115413338A
Authority
CN
China
Prior art keywords
data
accelerators
memory
page
gpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080073393.2A
Other languages
English (en)
Inventor
Z·夸雷谢
I-H·常
W-M·赫乌
熊瑾珺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Illinois
International Business Machines Corp
Original Assignee
University of Illinois
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Illinois, International Business Machines Corp filed Critical University of Illinois
Publication of CN115413338A publication Critical patent/CN115413338A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • G06F12/0238Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
    • G06F12/0246Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory in block erasable memory, e.g. flash memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/0679Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/10Address translation
    • G06F12/1009Address translation using page tables, e.g. page table structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0658Controller construction arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7201Logical to physical mapping or translation of blocks or pages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7203Temporary buffering, e.g. using volatile buffer or dedicated buffer blocks

Abstract

一种用于由处理器在计算环境中提供对非易失性存储器的直接访问的方法包括:经由应用编程接口(“API”)向一个或多个加速器提供对非易失性存储装置的直接访问而在控制路径或数据路径上与主机中央处理单元(“CPU”)无关,从而执行数据的读操作和写操作。

Description

在计算环境中提供加速器与存储装置之间的直接数据访问
技术领域
本发明一般涉及计算系统,尤其涉及在计算环境中提供加速器与非易失性存储器和存储装置之间的直接访问。
背景技术
一种流行的大规模计算类型是云计算,其中资源可以经由诸如计算机网络之类的通信系统来交互和/或访问。资源可以是计算设备、存储设备、应用程序、和/或在一个或多个计算设备(诸如服务器)上运行的其它计算机相关的设备和/或服务的软件渲染的模拟和/或仿真。例如,多个服务器可以传送和/或共享信息,该信息可以根据处理能力、存储空间和/或完成所请求的任务所需的其他计算资源的量来跨服务器地进行扩展和/或收缩。词语“云”是指在计算设备、计算机网络、和/或以这种布置交互的其他计算机相关的设备之间的互连性图的云状外观。
发明内容
提供了用于在计算环境中提供对非易失性存储器的直接访问的各个方面。在一个方面,提供了一种用于再次由处理器在计算环境中提供加速器到非易失性存储器之间的直接访问的方法。可以经由应用编程接口(“API”)向一个或多个加速器(例如,图形处理单元“GPU”)提供对非易失性存储装置的直接访问,而在控制路径或数据路径上与主机中央处理单元(“CPU”)无关,从而执行数据的读操作和写操作。
附图说明
为了容易地理解本发明的优点,将通过参考在附图中示出的具体实施例来呈现对以上简要描述的本发明的更具体的描述。应当理解,这些附图仅描述了本发明的典型实施例,因此不应被认为是对其范围的限制,将通过使用附图来描述和解释本发明的附加特征和细节,其中:
图1是描绘根据本发明的实施例的示例性计算节点的框图;
图2是描绘根据本发明的实施例的示例性云计算环境的附加框图;
图3是描绘根据本发明实施例的抽象模型层的附加框图;
图4示出其中可以实现本发明的各个方面的云计算网络;
图5A-图5C是示出根据本发明的各方面的用于在计算环境中提供加速器到非易失性存储装置之间的直接访问的示例性操作的框图;
图6是描绘其中可以实现本发明的各个方面的示例性加速器页面缓存组织和应用编程接口(“API”)的框图;
图7A-图7C是描绘其中可以实现本发明的各个方面的用于加速器的应用编程接口(“API”)调用描述的表;以及
图8是描绘用于在计算环境中提供加速器到非易失性存储装置之间的直接访问的示例性方法的流程图,同样在该计算环境中可实现本发明的各方面。
具体实施方式
当前,许多计算机系统采用加速器(例如,诸如图形处理单元(GPU)的协处理器)以增强这种系统的性能,其中,程序在中央处理单元(“CPU”)和加速器上都运行。例如,GPU可以参与执行复杂的数学计算。同样,加速器的并行结构使得它们能够对于可处理大数据块的应用/操作比CPU更有效。
此外,应用数据当前被存储在非易失性存储器上,因为数据通常太大而不能存储在GPU/CPU存储器中。由于非易失性存储器由CPU管理,因此,CPU管理GPU存储器(通过多个存储器副本和内核调用),或者GPU内核必须请求CPU向其提供数据,并且需要与CPU同步并对请求进行排队。假定GPU是高吞吐量设备,则同时执行大量线程。由于所有并行线程可能正在等待数据,因此,存在并出现大的延迟。一旦在GPU的流式多处理器(“SM”)上调度了块,则该块保持直到它完成为止。如果线程被迫等待数据,则执行资源被保持,并且其数据可用的块不能执行。因此,GPU资源正被低效地管理,并导致浪费的与主机CPU的同步操作和等待数据。
因此,以低延迟和高带宽向诸如GPU的加速器馈送或提供数据已成为数据密集应用中的瓶颈。当前,如前面所提到的,加速器(例如GPU)依赖于主机中央处理单元(“CPU”)来管理加速器的存储器,并依赖于非易失性存储器来向加速器提供数据。这不仅增加了数据复制开销,而且增加了高吞吐量加速器与CPU之间的同步形式的控制开销。此外,这不仅需要额外的主机资源,而且在给定对现代非易失性存储器快速(“NVMe”)设备的亚微秒访问延迟的情况下,这可以增加一个数量级的延迟,并显著地减少数据访问带宽,如下面在图5A中所示。
为了充分利用大容量NVMe设备的低延迟/高带宽,本发明的各种实施例允许加速器(例如GPU)直接访问它们,而在控制平面或数据平面中不涉及主机CPU。在一个方面,可以经由应用编程接口(“API”)向一个或多个加速器(例如,图形处理单元“GPU”)提供对非易失性存储装置的直接访问,而在控制路径或数据路径上与主机中央处理单元(“CPU”)无关,从而执行数据的读操作和写操作。
因此,本文描述的各种实施例增加了计算效率和在GPU上可用的计算单元的利用率,因为GPU存储器容量当前与GPU计算能力不匹配。而且,本发明释放CPU以并行地进行其它的有用工作,而不是仅管理GPU与存储装置之间的数据传递。本发明进一步提供对太字节的非易失性存储器的GPU线程直接访问,同时还允许GPU线程管理GPU存储器,而不是依赖于来自GPU存储器管理的CPU,以使得GPU线程可以现在直接访问它们需要的数据,从而提供成本节省和计算功耗的降低。
另外,即使当数据不适合GPU的存储器时,也能够使用GPU,使得GPU能够用于具有大数据的更不规则的应用(例如,大的图形处理)。本发明进一步消除了CPU与GPU之间的同步,以便获取向GPU的更多数据。此外,本文描述的预取操作允许GPU计算资源被释放,直到用于所预取的块的数据在GPU存储器中就绪(例如,用于所请求的数据块的数据以它们可以被使用的状态存在于GPU存储器中)。而且,由于现在较少依赖于CPU的事实,因此,本发明允许按比例增加更多的GPU而不引起增加主机CPU数量的额外成本。本发明进一步改进了容错和管理,同时还使得能够在一个或多个GPU上共同调度任务和I/O以避免拥塞并利用局部性。
本文将进一步描述所说明的实施例的各种方面的其它实例和对应益处。
预先理解,尽管本公开包括关于云计算的详细描述,但是本文中所记载的教导的实现不限于云计算环境或物联网(IoT)网络环境。相反,本发明的实施例能够结合现在已知或以后开发的任何其它类型的计算环境来实现。应当注意,IoT是涉及可被嵌入物体(诸如电器)中并通过网络连接的计算设备的新兴概念。IoT网络可包括一个或多个IoT设备或“智能设备”,它们是诸如其中嵌入了计算设备的电器之类的物理对象。许多IoT设备是可独立操作的,但是它们也可以与控制系统或与诸如在云计算环境上运行的分布式控制系统配对。控制系统可以包括与本文所描述的类似的端到端流监测机制。
云计算是一种服务交付模式,用于实现对共享的可配置计算资源(例如,网络、网络带宽、服务器、处理、存储器、存储、应用、VM和服务)池池的方便、按需的网络访问,可配置计算资源可以以最小的管理成本或与服务提供商进行最少的交互来快速供应和释放。这种云模式可以包括至少五个特性、至少三个服务模型和至少四个部署模型。
特征如下:
按需自助式服务:云的消费者可以单方面自动地按需提供计算能力(诸如服务器时间和网络存储),而无需与服务提供者进行人工交互。
广泛的网络接入:能力在网络上可用并通过促进异构的瘦或厚客户端平台(例如,移动电话、膝上型计算机和PDA)的使用的标准机制来接入。
资源池:提供商的计算资源被归入资源池以使用多租户模型来服务多个消费者,其中不同的物理和虚拟资源根据需求被动态地分配和再分配。一般情况下,消费者不能控制或不知道所提供的资源的确切位置,但是可以在较高抽象程度上指定位置(例如国家、州或数据中心),因此具有位置无关性。
迅速弹性:可以迅速且有弹性地(在一些情况下自动地)提供能力以快速向外扩展并被迅速释放以快速缩小。对于消费者,可用于提供的能力通常看起来是无限的,并可以在任何时间以任何数量购买。
可测量的服务:云系统通过利用在适于服务类型(例如,存储、处理、带宽和活动用户账户)的某一抽象程度的计量能力,自动地控制和优化资源使用。可以监视、控制和报告资源使用情况,为所利用的服务的提供者和消费者双方提供透明度。
服务模型如下:
软件即服务(SaaS):向消费者提供的能力是使用提供者在云基础架构上运行的应用。可通过诸如网络浏览器的瘦客户机接口(例如,基于网络的电子邮件)来从各种客户机设备访问应用。除了有限的特定于用户的应用配置设置以外,消费者既不管理也不控制包括网络、服务器、操作系统、存储、或甚至单个应用能力等的底层云基础架构。
平台即服务(PaaS):向消费者提供的能力是在云基础架构上部署消费者创建或获得的应用,这些应用是使用由提供商支持的编程语言和工具创建的。消费者既不管理也不控制包括网络、服务器、操作系统或存储的底层云基础架构,但对其部署的应用具有控制权,对应用托管环境配置可能也具有控制权。
基础架构即服务(IaaS):向消费者提供的能力是提供消费者能够在其中部署并运行包括操作系统和应用的任意软件的处理、存储、网络和其它基础计算资源。消费者既不管理也不控制底层云基础架构,但对操作系统、存储、所部署的应用具有控制权,对所选择的网络组件(例如,主机防火墙)可能具有有限的控制权。
部署模型如下:
私有云:云基础架构单独为某个组织运行。它可以由该组织或第三方管理,并且可以存在于该组织内部或外部。
共同体云:云基础架构被若干组织共享,并支持具有共同利害关系(例如,任务、安全要求、政策和合规考虑)的特定共同体。它可以由该组织或第三方管理,并且可以存在于该组织内部或外部。
公共云:云基础架构可用于一般公众或大型产业群,并由销售云服务的组织拥有。
混合云:云基础架构由两个或更多云(私有云、共同体云或公共云)组成,这些云依然是独特实体,但是通过使数据和应用能够移植的标准化技术或私有技术(例如,用于云之间的负载平衡的云突发)绑定在一起。
云计算环境是面向服务的,特点集中在无状态性、低耦合性、模块性和语义的互操作性。计算的核心是包括互连节点网络的基础架构。
现在参考图1,示出了云计算节点的示例的示意图。云计算节点10仅是合适的云计算节点的一个示例,并且不旨在对本文所描述的本发明的实施例的使用范围或功能提出任何限制。无论如何,云计算节点10能够被实现和/或执行上文阐述的任何功能。
在云计算节点10中,存在计算机系统/服务器12,其可与许多其他通用或专用计算系统环境或配置一起操作。可适合用于计算机系统/服务器12的公知的计算系统、环境和/或配置的示例包括但不限于个人计算机系统、服务器计算机系统、瘦客户端、胖客户端、手持式或膝上型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费电子产品、网络PC、小型计算机系统、大型计算机系统、以及包括任何上述系统或设备的分布式云计算环境等。
计算机系统/服务器12可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般上下文中描述。通常,程序模块可以包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、逻辑、数据结构等。计算机系统/服务器12可以在分布式云计算环境中实践,其中任务由通过通信网络或IoT网络链接的远程处理设备执行。在分布式云计算环境中,程序模块可以位于包括存储器存储设备的本地和远程计算机系统存储介质中。
如图1所示,云计算节点10中的计算机系统/服务器12被示为通用计算设备的形式。计算机系统/服务器12的组件可以包括但不限于一个或多个处理器或处理单元16、系统存储器28、以及将包括系统存储器28的各种系统组件耦合到处理器16的总线18。
总线18表示若干类型的总线结构中的任何一种的一个或多个,包括存储器总线或存储器控制器、外围总线、加速图形端口、以及使用各种总线体系结构中的任何一种的处理器或局部总线。作为示例而非限制,这些体系结构包括工业标准体系结构(ISA)总线、微通道体系结构(MCA)总线、增强型ISA(EISA)总线、视频电子技术标准协会(VESA)局部总线、和外围部件互连(PCI)总线。
计算机系统/服务器12通常包括各种计算机系统可读介质。这样的介质可以是计算机系统/服务器12可访问的任何可用介质,并且它包括易失性和非易失性介质、可移除和不可移除介质。
系统存储器28可以包括采用易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机系统/服务器12可以进一步包括其他可移除/不可移除、易失性/非易失性计算机系统存储介质。仅作为示例,存储系统34可被提供用于从不可移除的非易失性磁介质(未示出,通常被称为“硬盘驱动器”)中读取和向其写入。尽管未示出,但是,可以提供用于从可移除的非易失性磁盘(例如,“软盘”)中读取和向其写入的磁盘驱动器,以及用于从可移除的非易失性光盘(诸如CD-ROM、DVD-ROM或其它光学介质等)中读取或向其写入的光盘驱动器。在这种情况下,每个都可以通过一个或多个数据介质接口被连接到总线18。如下面将进一步描绘和描述的,系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如,至少一个)程序模块,该程序模块被配置为执行本发明的实施例的功能。
具有一组(至少一个)程序模块42的程序/实用程序40以及(作为示例而非限制)操作系统、一个或多个应用程序、其它程序模块和程序数据可被存储在系统存储器28中。操作系统、一个或多个应用程序、其它程序模块、以及程序数据或其某种组合中的每一个可包括联网环境的实现。程序模块42通常执行本文所描述的本发明实施例的功能和/或方法。
计算机系统/服务器12还可以与一个或多个外部设备14(诸如键盘、指示设备、显示器24等);使得用户能够与计算机系统/服务器12交互的一个或多个设备;和/或使计算机系统/服务器12能够与一个或多个其它计算设备通信的任何设备(例如网卡、调制解调器等)通信。这种通信可以经由输入/输出(I/O)接口22发生。然而,计算机系统/服务器12可以经由网络适配器20与一个或多个网络(诸如局域网(LAN)、通用广域网(WAN)、IoT网络和/或公共网络(例如,因特网))通信。如图所示,网络适配器20经由总线18与计算机系统/服务器12的其它组件通信。应当理解,尽管未示出,但其它硬件和/或软件组件可以与计算机系统/服务器12结合使用。示例包括但不限于:微码、设备驱动程序、冗余处理单元、外部磁盘驱动器阵列、RAID系统、磁带驱动器和数据档案存储系统等。
现在参考图2,描绘了说明性的云计算环境50。如图所示,云计算环境50包括云消费者使用的本地计算设备可以与其通信的一个或多个云计算节点10,本地计算设备例如个人数字助理(PDA)或蜂窝电话54A、台式计算机54B、膝上型计算机54C、智能床垫54D和/或汽车计算机系统54N。如在此所使用的,床垫(例如床垫5D)可以是衬垫、垫子、泡沫、或者被设计用于支撑身体的全部或部分或使身体的全部或部分斜躺的物体,例如床(或床的一部分)、沙发、躺椅、座椅、椅子或座位。
节点10可以彼此通信。它们可以被物理地或虚拟地分组(未示出)在一个或多个网络(诸如上文所述的私有云、共同体云、公共云或混合云或其组合)中。这允许云计算环境50提供基础架构即服务、平台即服务和/或软件即服务,而云消费者不需要为其在本地计算设备上维护资源。应当理解,图2中所示的各类计算设备54A-N仅仅是示意性的,计算节点10和云计算环境50可以在任何类型的网络和/或网络可寻址连接上(例如,使用网络浏览器)与任何类型的计算设备通信。
现在参考图3,示出了由云计算环境50(图2)提供的一组功能抽象层。首先应当理解,图3中所示的组件、层和功能仅仅是示意性的,本发明的实施例不限于此。如图所示,提供了以下层和相应的功能:
设备层55包括被嵌入有独立的电子器件、传感器、致动器和其他对象以在云计算环境50中执行各种任务的物理和/或虚拟设备。设备层55中的每个设备将联网能力结合到其他功能抽象层,以使得从设备获得的信息可以被提供给这些层,和/或来自其他抽象层的信息可以被提供给设备。在一个实施例中,包括设备层55在内的各种设备可以并入统称为“物联网”(IoT)的实体网络。如本领域普通技术人员将理解的,这样的实体网络允许数据的相互通信、收集和传播以实现各种目的。
如图所示,设备层55包括传感器52、致动器53、具有集成处理、传感器和联网电子设备的“学习”恒温器56、相机57、可控家用插座/插口58、以及可控电开关59。其它可能的设备可以包括但不限于各种附加的传感器设备、联网设备、电子设备(诸如遥控设备)、附加的致动器设备、所谓的“智能”电器(诸如冰箱或洗衣机/干衣机)、以及各种各样的其它可能的互连对象。
硬件和软件层60包括硬件和软件组件。硬件组件的示例包括:大型机61;基于RISC(精简指令集计算机)架构的服务器62;服务器63;刀片服务器64;存储设备65;以及网络和联网组件66。在一些实施例中,软件组件包括网络应用服务器软件67和数据库软件68。
虚拟化层70提供抽象层,从该抽象层可以提供虚拟实体的以下示例:虚拟服务器71;虚拟存储器72;虚拟网络73,包括虚拟专用网络;虚拟应用程序和操作系统74;以及虚拟客户端75。
在一个示例中,管理层80可以提供以下描述的功能。资源供应功能81提供用于在云计算环境中执行任务的计算资源和其它资源的动态获取。计量和定价功能82提供对在云计算环境中使用资源的成本跟踪,并为这些资源的消耗提供账单或发票。在一个示例中,这些资源可以包括应用软件许可。安全功能为云消费者和任务提供身份认证,并为数据和其他资源提供保护。用户门户功能83为消费者和系统管理员提供对云计算环境的访问。服务水平管理功能84提供云计算资源分配和管理,以满足所需的服务水平。服务水平协议(SLA)计划和履行功能85提供对根据SLA针对其预测未来需求的云计算资源的预安排和采购。
工作负载层90提供可以利用云计算环境的功能的示例。在该层中,可提供的工作负载和功能的示例包括:地图绘制和导航91;软件开发及生命周期管理92;虚拟教室的教学提供93;数据分析处理94;交易处理95;以及在本发明的所示实施例的上下文中,各种用于提供加速器到非易失性存储器之间的直接访问的工作负载和功能96。此外,用于提供加速器到非易失性存储器之间的直接访问的工作负载和功能96可以包括诸如数据分析(包括来自各种环境传感器的数据收集和处理)、联网、发送/接收数据、提供虚拟化/虚拟计算、云计算通信、和/或管理功能之类的操作。本领域的普通技术人员将理解,用于提供加速器到非易失性存储器之间的直接访问的工作负载和功能96还可以结合各种抽象层的其他部分(诸如硬件和软件60、虚拟化70、管理80和其他工作负载90(诸如数据分析处理94)中的那些)来工作,以实现本发明的所示实施例的各种目的。
如前所述,本发明的机制提供了一种用于再次由处理器在计算环境中提供加速器到非易失性存储器之间的直接访问的新颖方法。可以经由应用编程接口(“API”)向一个或多个加速器(例如,图形处理单元“GPU”)提供对非易失性存储装置的直接访问而在控制路径或数据路径上与主机中央处理单元(“CPU”)无关,从而执行数据的读操作和写操作。
现在转向图4,示出了描绘根据所示实施例的各种机制的示例性功能组件400的框图。在一个方面,在图1至图3中描述的组件、模块、服务、应用和/或功能中的一个或多个可在图4中使用。示出了直接数据访问服务410,其结合处理单元420(“处理器”)以执行根据本发明的各方面的各种计算、数据处理和其它功能。在一个方面,处理器420和存储器430可以在直接数据访问服务410的内部和/或外部,并且在计算系统/服务器12的内部和/或外部。直接数据访问服务410可以被包括在计算机系统/服务器12中,如图1中所描述的。
在一个方面,计算机系统/服务器12可以与一个或多个加速器(例如GPU 492(仅作为示例示出))和非易失性存储器490(例如,固态驱动器“SDD”))进行通信。在一个方面,GPU492可以被包括在计算机系统/服务器12上(例如,位于计算机系统/服务器12的内部和/或外部)。另外,非易失性存储器490可以被包括在计算机系统/服务器12上(例如,地于计算机系统/服务器12的内部和/或外部),和/或非易失性存储器490可以位于计算机系统/服务器12的外部。
处理单元420可以与存储器430进行通信。直接数据访问服务410可以包括直接数据访问组件440、页面缓存组件450、预取组件460和/或对象管理组件470。
如本领域普通技术人员将理解的,直接数据访问服务410中的各种功能单元的描绘是出于说明的目的,因为功能单元可以位于直接数据访问服务410内或者在分布式计算组件内和/或之间的其他地方。
在一个方面,直接数据访问服务410可以经由应用编程接口(“API”)向一个或多个加速器提供对非易失性存储装置的直接访问,而在控制路径或数据路径上与主机中央处理单元(“CPU”)无关,从而执行数据的读操作和写操作。
直接数据访问服务410可以在一个或多个加速器的存储器地址空间中映射非易失性存储器490的一个或多个非易失性存储器快速(“NVMe”)队列和寄存器。
页面缓存组件450可使用一个或多个加速器的存储器中的由一个或多个加速器管理的页面缓存,以利用数据中的局部性。在存在多个加速器(例如,多个GPU)的情况下,页面缓存组件450可以使用多个加速器的存储器中的由一个或多个加速器管理的分布式页面缓存,以利用数据中的局部性。
页面缓存组件450可将一个或多个页面从非易失性存储器490复制到页面缓存,并更新页面映射表。直接数据访问服务410可以在将数据从非易失性存储器490复制到一个或多个加速器(诸如GPU 492)时从控制路径或数据路径中移除主机CPU。
预取组件460可以用API预取数据,并且保存每个计算周期以重叠计算和数据的移动。
与页面缓存组件450和/或预取组件相关联的直接数据访问服务410可以在接收到由一个或多个加速器发起的用于数据的读操作或写操作的一个或多个API调用时确定页面缓存未命中的发生,将一个或多个页面从一个或多个非易失性存储器快速(“NVMe”)数据缓冲区复制到页面缓存,和/或更新页面映射表。
在主机CPU(例如,计算机系统/服务器12,并且可以在GPU 492的内部和/或外部)中的对象管理组件470可以在启动应用时管理非易失性存储器490中的每个对象的对象地址。每个对象标识符(“ID”)、对象起始块地址、对象大小的映射可以由主机CPU管理,并且可以在非易失性存储器490的保留区中被保持持久。800的操作可使用一个或多个API调用来对一个或多个加速器分配每个对象的页面子范围。
例如,在应用开始时,主机CPU(例如,计算机系统/服务器12)使用API调用(例如,“get_object_map”API调用)来读取映射。在内核调用时,代替传递指针,主机CPU(例如,计算机系统/服务器12)传递具有其大小的每个对象的起始块地址。然后,GPU 492可以知道期望的数据结构的位置。主机CPU(例如,计算机系统/服务器12)可以使用另一个API调用(例如,“pcreate”API调用)来创建空间和新对象的映射。GPU(例如,GPU 492之一)可以被分配给每个对象的页面子范围。GPU(例如,GPU 492之一)可以被称为这些页面的家(home)(例如,如果GPU拥有该页面,则它是该页面的家庭GPU)。
现在转到图5A至图5C,描绘了涉及提供加速器到非易失性存储器之间的直接访问的示例性功能500的框图。如图所示,各种功能块用箭头描绘,表示块500彼此之间的关系并且示出处理流程。另外,还可以看见与每个功能块500(或“动作步骤”或简称为“步骤”)相关的描述性信息。将看出,在与先前在图1至图4中已描述的相同描述意义上,许多功能块也可以被认为是功能的“模块”。考虑到前述内容,模块500也可以被并入根据本发明的用于提供加速器到非易失性存储器之间的直接访问的系统的各种硬件和软件组件中。许多功能块500可以在各种组件(在分布式计算组件中,或在用户设备上,或在别处,但通常不为用户所知)上作为后台进程执行。为了简洁起见,省略了对在此描述的其他实施例中采用的类似元件、组件、模块、服务、应用和/或功能的重复性描述。
如前所述,图5A描绘了GPU 510依赖于主机文件系统“FS”(例如,主机CPU 530和CPU动态随机存取存储器“DRAM”)来管理GPU 510的存储器,并依赖于非易失性存储装置520来向GPU 510提供数据。这不仅增加了数据复制开销,而且增加了高吞吐量加速器与CPU530之间的同步形式的控制开销。主机CPU 530导致步骤1和步骤2的GPU 510与非易失性存储器520之间的存储器管理开销。数据的多个副本可以在步骤3在非易失性存储装置520与CPU 530之间以及在步骤4在GPU 510与CPU 530之间被传递/馈送。此外,GPU线程、块、网格可以被停止,直到数据如在步骤4中被传送到GPU 510为止。应当注意,存在通过直接在GPU510与非易失性存储装置520之间执行直接存储器访问(“DMA”)来减少数据复制开销的尝试,但是这仍然导致来自CPU 530的CPU控制/同步开销。
然而,使用本发明的各种实施例,图5B描绘了用于使用单个加速器(例如,单个GPU510)来提供加速器到非易失性存储器之间的直接访问的操作。也就是说,图5B描绘了减少访问开销/延迟并允许GPU 510的GPU线程直接访问非易失性存储装置520而与CPU 530无关。在一个方面,GPU 510用文件系统“FS”管理非易失性存储装置520(类似于简单对象存储),并利用在GPU 510上运行的NVMe驱动程序(例如,使用GPU Direct)。CPU 530从控制路径中移除,如在步骤1中,并且从数据路径中移除,如在步骤2中。GPU 510可访问整个非易失性存储装置520。
更具体地,图5B描绘了从单个加速器(诸如GPU 510)发出读请求和写请求的操作,以用于减少访问开销/延迟并允许GPU 510的GPU线程直接访问非易失性存储装置520而与CPU 530无关。在一个方面,API可以使得GPU 510的GPU线程能够使用NVMe在非易失性存储装置520上读取和写入数据,而无需在控制或数据路径上具有主机CPU 530,如在以下步骤中所示的。
在步骤1中,主机CPU 530可初始化GPU与非易失性存储装置520之间的接口(例如,队列和DMA)(经由NVMe和DMA映射(诸如GPUDirect/DirectGMA))。在步骤2中,主机CPU 530可以启动对象映射从非易失性存储装置520到GPU 510的GPU存储器的转移,因此,GPU线程知道每个对象在非易失性存储装置520上的位置。在步骤2(1)中,映射中的条目可以是键值对,其中对象标识符(“ID”)作为键,非易失性存储装置520上的起始地址作为值。在步骤2(2)中,主机CPU 530的应用可以通过将适当的对象ID作为参数传递到GPU内核启动来向GPU510指示要使用哪个对象。在步骤3中,主机CPU 530可在诸如除了对象ID作为参数(来自步骤2(2))以外的正常应用中启动GPU内核。
在步骤4中,GPU内核线程可使用一个或多个API调用(例如所提供的“pread”和“pwrite”API调用)来在非易失性存储装置520上读取和/或写入数据。
在步骤5中,当GPU线程发出pread API调用时,可由GPU线程(例如,调用API调用并且被GPU线程检查的线程)检查GPU页面缓存,以确定所请求的页面是否在GPU 510的GPU存储器中。在步骤5(1)中,如果页面在GPU 510的存储器中,则数据从页面缓存被复制到用户分配的目的地缓冲区(例如,目的地缓冲区可以是GPU存储器中用户可以读取和写入并且可以使用一个或多个API来分配的用户分配的缓冲区)。在步骤5(2)中,如果页面(或页面的子集)不位于GPU页面缓存中,则进行调用的GPU线程可以准备用于未命中页面的NVMe命令,如在步骤5(2)(1)中;将NVMe命令原子地添加到NVMe提交队列中,并使NVMe门铃振铃,如在步骤5(2)(2)中,而在控制路径中不使用CPU 530,如在步骤5(2)(2)(1)中;轮询NVMe完成队列,直到请求完成为止,如在步骤5(2)(3)中,其中,GPU 510与NVMe设备之间的数据直接在彼此之间被复制,而没有CPU 520的干预,如在步骤5(2)(3)(1)中;并且将数据从NVMe IO缓冲区复制到用户提供的缓冲区,如在步骤5(2)(4)中,以及更新页面缓存状态,如在步骤5(2)(5)中。
另外,在步骤6中,当GPU线程发出pwrite API时,进行调用的线程可:更新页面缓存状态,如在步骤(6)(1)中;准备将页面写入非易失性存储装置中的NVMe命令,如在步骤(6)(2)中;将该命令原子地添加到NVMe提交队列中,并使NVMe门铃振铃,如在步骤(6)(3)中(例如,而在控制路径中不使用CPU 530),如在步骤5(2)(2)(1)中;轮询NVMe完成队列,直到请求完成为止,如在步骤(6)(4)中(例如,GPU 510与NVMe设备之间的数据在彼此之间直接复制,而没有CPU 520的干预),如在步骤5(2)(3)(1)中;以及释放它的缓冲区,如在步骤(6)(7)中。
在步骤7中,GPU线程可发出pread和pwrite API调用,然而它想要多次,并且可分别重复步骤1(5)和1(6)。
在多个GPU的情况下,图5C描绘了用于提供多个GPU 510(例如,图5C中的510描绘一组GPU)与非易失性存储器520之间的直接访问的操作。在访问NVMe之前,GPU 510在彼此之间交换数据以验证数据是否已在不同的GPU高速缓存中存在。
在一个方面,对象页面被散列到一个或多个特定GPU 510。GPU 510可以拥有对象页面,在这种情况下,对象页面可以位于一个或多个特定GPU 510的高速缓存中;或者GPU510可以负责检索对象页面。此外,GPU 510可向一组GPU510中的拥有GPU请求页面。
现在转到图6,框图600描绘了用于使用加速器页面缓存组织和应用编程接口(“API”)的示例性操作。在一个方面,在图1至图5A-图5C中描述的设备、组件、模块、操作和/或功能中的每一个也可应用或执行图6的一个或多个操作或动作。
在步骤1中,API调用(例如,pread API调用和/或pwrite API)可以被发布给GPU存储器620中的GPU页面缓存(“gpcache”)。在步骤2中,在接收到由所述一个或多个加速器(例如,GPU线程610)发起的用于数据的读操作或写操作的一个或多个API调用(例如,preadAPI调用和/或pwrite API)时,确定页面缓存未命中的发生,并向NVMe提交队列624提交NVMe请求以用于访问NVMe设备630。在步骤3中,轮询使用NVMe设备630的NVMe请求完成被完成,并被提供给NVMe完成队列626。
在步骤4中,页面可从NVMe数据缓冲区628被复制到页面缓存622,并且可以更新页面/对象映射表。
在使用单个加速器(例如,图5B的单个GPU 510)提供加速器到非易失性存储器之间的直接访问的情况下,可以使用GPU存储器中的页面缓存(例如,应用/软件管理的页面缓存)来执行以下操作步骤以利用数据中的局部性。
在步骤1)中,可在GPU存储器620(例如,GPU全局存储器)中维持页面表,GPU存储器620存储从对象数据到GPU存储器620(例如,GPU全局存储器)的GPU全局存储器地址的页面映射。在步骤(1)(1)中,仅当页面位于GPU存储器620中时,映射才存在。
在步骤2中,可以在最近最少使用(“LRU”)列表中保持页面缓存页面。在步骤2(1)中,在pread或pwrite API调用请求时,如果存在不足的空闲页面(例如,没有足够的空闲页面),则LRU页可以在脏的情况下被写回,从先前的映射中解除映射,并且针对新的映射而被重新映射。
在步骤3(1)中,在pread API调用时,可以在页面缓存中检查每个所请求的页面。如果页面在页面缓存中,则数据可从该处被复制到用户提供的缓冲区,如在步骤3(2)中。在步骤3(2)中,可以针对不位于页面缓存622中的页面创建输入/输出(“I/O”)请求。在步骤3(2)(1)中,可针对新请求的页面在页面表中创建映射。
在步骤4(1)中,在pwrite API调用时,来自页面缓存的LRU列表的页面被分配,来自用户指定的缓冲区的数据被复制到这些页面,并且用于在非易失性存储装置630上的对象中的目的地页面的页面映射可被更新以指向适当的页面。在步骤4(2)中,当写I/O请求完成时,可以在用于(一个或多个)页面的页面表条目中设置一个位。在步骤4(2)(1)中,执行附加的写回操作(来自步骤2(2)(4)(1))可在回收的情况下被执行。在步骤5中,可以执行一个或多个读/写操作。
应当注意,在使用多个加速器(例如,针对多GPU计算环境使用分布式页面缓存的图5C的一组GPU 510)提供加速器到非易失性存储器之间的直接访问的情况下,可以使用GPU存储器中的页面缓存(例如,应用/软件管理的页面缓存)来执行以下操作步骤以利用数据中的局部性。
在步骤1中,GPU(例如,图510的GPU 510)可被分配给对象的页面子范围。GPU可以被称为那些页面的家。在步骤1(1)中,每个GPU还被分配了唯一的ID。
在步骤2中,家庭GPU 510维持/保持针对其GPU 510被指定为家的那些页面的映射。在步骤2(1)中,映射操作可映射哪些其它GPU在缓存页面。在步骤2(2)(2)中,如果页面位于GPU的页面缓存中,则GPU ID和存储器地址可被维持在该组GPU中的该特定GPU的页面缓存内。在步骤2(3)中,可替代地,如果页面不位于GPU的页面缓存中,则页面位于非易失性存储装置520中。
在步骤3中,当GPU存储器620的pread API调用不能在本地页面缓存中定位所请求的页面时,GPU存储器620向那些页面的(一个或多个)家庭GPU提交请求。在步骤3(1)中,家庭GPU可检查页面是否位于另一个GPU的页面缓存中。在步骤3(1)(1)中,如果页面位于另一个GPU的页面缓存中,则GPU存储器620可用GPU ID和页面缓存地址来响应,以使得进行请求的GPU可从该GPU的页面缓存复制该(一个或多个)页面,否则,家庭GPU允许进行请求的GPU知道该页面在非易失性存储器620中,并更新它的映射表,如在步骤3(1)(2)中,并且进行请求的GPU提交I/O请求,如在步骤3(2)(1)中。
在步骤4中,当GPU线程610对某些页面执行pwrite时,GPU线程610向那些页面的(一个或多个)家庭GPU提交请求。在步骤4(1)中,家庭GPU可检查其它GPU是否在其页面缓存中具有将要被覆写的页面。在步骤4(1)(1)中,如果其它GPU在其页面缓存中具有将要被覆写的页面,则家庭GPU可使那些可替代GPU的页面缓存中的所有那些页面无效,并更新它自己的映射。在步骤4(1)(2)中,如果其它GPU在其页面缓存中不具有将要被覆写的页面,则家庭GPU让进行请求的GPU知道页面在非易失性存储器630中,并在进行请求的GPU完成它的I/O请求之后使映射表被更新。在步骤4(1)(2)(1)中,进行请求的GPU可提交I/O请求。
在步骤5中,每个GPU上的线程可专用于处理来自其它GPU的请求。
应注意,可使用一个或多个操作来执行如本文所描述的预取操作(例如,图4至图5B-图5C)。例如,考虑以下用于执行预取操作的两个操作。
在预取操作1中,以下用于预取数据并在线程块之间传递数据的操作可以如下执行。在步骤1中,GPU(诸如GPU 510)可以启动一个或多个线程块(在下文中称为I/O块),该线程块仅负责使用pread_prefetch API调用来发出针对那些块的pread的对应I/O请求。
在步骤2中,I/O块中的线程可以创建并提交NVMe请求。在步骤2(1)中,可以执行在步骤1(5)(2)(1)直到步骤1(5)(2)(2)中执行的针对来自单个GPU的读取和写入请求的所有相同的动作。在步骤2(2)中,线程不轮询完成(例如异步的)。在步骤2(3)中,线程可创建用于I/O请求到NVMe命令ID的映射。该映射稍后由GPU线程在轮询完成队列以找到用于针对预取而提交的命令的完成条目时使用。
在步骤3中,当调度实际计算线程块并且GPU线程发出pread API调用时,首先,可以检查映射以检查是否已经进行了请求,如在步骤3(1)中。如果已发出/进行了请求,则GPU线程使用consume_prefetch_pread API调用来在NVMe完成队列626上轮询该NVMe命令ID,如在步骤3(2)中,否则它继续进行,如在步骤3(3)中(类似于可执行针对来自单个GPU的读取和写入请求的步骤1(5)(2)(4))。这样,GPU流式多处理器(“SM”)的一个或多个周期不会被浪费在等待I/O完成上。
在预取操作2中,以下用于预取数据并重叠计算和数据移动的操作可以如下执行。在步骤1中,每个GPU线程块可以被复用以执行针对多个线程块的计算。
在步骤2中,GPU线程块可以通过将这些块流水线化来处理被映射到它的多个线程块。
在步骤3中,GPU线程块可使用pread_prefetch API调用来发起针对一个块的I/O请求。
在步骤4中,GPU线程块可以用它在块的缓冲区中的数据来执行针对另一个线程块的计算。
在步骤5中,GPU线程块可以使用consume_prefetch_pread API调用来在该块的缓冲区中消耗用于针对第三块而被提交的I/O请求的数据。在步骤5(1)中,在此所描述的用于步骤3(2)(3)的I/O请求可与步骤3(2)(4)中的计算重叠。
在步骤6中,每个GPU线程块可执行步骤3(2)(2)直到步骤3(2)(5)以使用用于多GPU计算环境的分布式页面缓存,直到所有线程块都被用尽。
现在转到图7A-图7C,描绘了示出用于GPU的应用编程接口(“API”)调用描述的表700。在一个方面,在图1至图6中描述的设备、组件、模块、操作和/或功能中的每一个也可以使用图7A至图7C的一个或多个API调用。
“initialize()”API调用可用于建立GPUDirect/DirectGMA,建立NVMe队列,并在GPU存储器中映射NVMe队列,以及检索/取得要被传递到GPU的NVMe队列指针和状态。
“get_object_map()”API调用可以读取非易失性存储装置上的对象映射,因此,GPU线程可以知道每个对象在非易失性存储装置上起始的位置。返回的映射可被传递到被调用的每个GPU内核。
“int pcreate(size_t n_bytes)”API调用可以在非易失性存储装置上创建大小为“n_bytes”数量的字节的新对象,并将该新对象添加到对象映射中。可以返回对象ID。
“size_t pread(int obj_id,size_t offset,size_t n_bytes,char*buffer)”可以是读取非易失性存储装置上的对象ID为“obj_id”的对象中的在所指定的“offset”处开始的“n_bytes”数量的字节并将所读取的数据存储在用户提供的缓冲区中的API调用。也就是说,对象ID(例如,“obj_id”)可以是对象的唯一标识符。被存储在非易失性存储器中的每个对象可以具有唯一的标识符,以使得它可在使用通用API类pread时用于指定对象。对象ID(例如,“obj_id”)可以是文件描述符或文件路径。
“int pread_prefetch(int obj_id,size_t offset,size_t n_bytes)”API调用提交针对pread的IO请求,设置I/O请求与NVMe命令ID之间的映射。
“size_tconsume_prefetch_pread(int ID,char*buffer,size_t n_bytes)”API调用等待,直到指定命令被完成并在指定缓冲区中消耗结果。
“size_t pwrite(int obj_id,size_t offset,size_t n_bytes,char*buffer)”API调用可以在非易失性存储装置上写入对象id为“obj_id”的对象中的在偏移处开始的“n_bytes”数量的字节。
“flush()”API调用可以清除NVMe队列中的过时条目,并且等待,直到所有NVMe写命令被完成。
现在转到图8,描绘了用于在计算环境中提供加速器(例如,图形处理单元“GPU”)到非易失性存储器之间的直接访问的方法800。在一个方面,在图1至图7中描述的设备、组件、模块、操作和/或功能中的每一个还可应用或执行图8的一个或多个操作或动作。功能800可被实现为在机器上作为指令执行的方法,其中,这些指令被包括在至少一个计算机可读介质或一个非暂时性机器可读存储介质上。功能800可以在框802中开始。
如在框804中,可经由应用编程接口(“API”)向一个或多个加速器提供对非易失性存储装置的直接访问而在控制路径或数据路径上与主机中央处理单元(“CPU”)无关,从而执行数据的读操作和写操作。功能800可以结束,如在框806中。
在一个方面,结合图8的至少一个框和/或作为其一部分,操作800可包括以下中的每一项中的一个或多个。800的操作可在一个或多个加速器的存储器地址空间中映射一个或多个非易失性存储器快速(“NVMe”)队列和寄存器。800的操作可使用一个或多个加速器的存储器中的由一个或多个加速器管理的页面缓存以利用数据中的局部性,和/或使用多个加速器的存储器中的由一个或多个加速器管理的分布式页面缓存以利用数据中的局部性。
800的操作可以将一个或多个页面从非易失性存储装置复制到页面缓存,并更新页面映射表。800的操作可在将数据从非易失性存储装置复制到一个或多个加速器时从控制路径或数据路径中移除主机CPU。800的操作可以用API预取数据,并保存计算周期以重叠计算和数据的移动。800的操作可以在接收到由所述一个或多个加速器发起的用于数据的读操作或写操作的一个或多个API调用时确定页面缓存未命中的发生,将一个或多个页面从一个或多个非易失性存储器快速(“NVMe”)数据缓冲区复制到页面缓存,和/或更新页面映射表。
800的操作可以在启动应用时接收非易失性存储装置中的每个对象的对象地址。每个对象标识符(“ID”)、对象起始块地址、对象大小的映射可由主机CPU管理,并可在非易失性存储装置的保留区中被保持持久。800的操作可使用一个或多个API调用来对一个或多个加速器分配每个对象的页面子范围。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括在其上具有计算机可读程序指令的(一个或多个)计算机可读存储介质,计算机可读程序指令用于使处理器执行本发明的各方面。
计算机可读存储介质可以是可保持并存储由指令执行设备使用的指令的有形设备。计算机可读存储介质可以是例如但不限于电子存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备、或前述存储设备的任何合适的组合。计算机可读存储介质的更具体示例的非穷举列表包括以下:便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式光盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、诸如在上面记录有指令的打孔卡或凹槽中的凸起结构的机械编码设备、以及上述设备的任何适当的组合。如本文所使用的计算机可读存储介质不应被解释为是暂时性信号本身,诸如无线电波或其他自由传播的电磁波、通过波导或其他传输介质传播的电磁波(例如,通过光纤线缆的光脉冲)、或通过导线传输的电信号。
本文描述的计算机可读程序指令可以从计算机可读存储介质下载到相应的计算/处理设备,或者经由网络(例如互联网、局域网、广域网和/或无线网络)下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光传输光纤、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或网络接口从网络接收计算机可读程序指令,并转发计算机可读程序指令以存储在相应计算/处理设备内的计算机可读存储介质中。
用于执行本发明的操作的计算机可读程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、集成电路的配置数据、或者以一种或多种编程语言(包括面向对象的编程语言,例如Smalltalk、C++等)和过程编程语言(例如“C”编程语言或类似的编程语言)的任意组合编写的源代码或目标代码。计算机可读程序指令可以完全在用户的计算机上执行、部分在用户的计算机上执行、作为独立的软件包执行、部分在用户的计算机上并且部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在后一种场景下,远程计算机可以通过任何类型的网络(包括局域网(LAN)或广域网(WAN))连接到用户的计算机,或者可以连接到外部计算机(例如,使用互联网服务提供商通过互联网)。在一些实施例中,包括例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA)的电子电路可以通过利用计算机可读程序指令的状态信息来执行计算机可读程序指令以使电子电路个性化,以便执行本发明的各方面。
在此参考根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述本发明的各方面。将理解,流程图和/或框图的每个框以及流程图和/或框图中的框的组合可以由计算机可读程序指令来实现。
这些计算机可读程序指令可以被提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器以产生机器,以使得经由计算机或其他可编程数据处理装置的处理器而执行的指令创建用于实现流程图和/或框图的一个或多个框中指定的功能/动作的装置。这些计算机可读程序指令还可以存储在计算机可读存储介质中,其可以引导计算机、可编程数据处理装置和/或其他设备以特定方式工作,已使得在其中存储有指令的计算机可读存储介质包括制品,该制品包括实现流程图和/或框图的一个或多个框中指定的功能/动作的各方面的指令。
计算机可读程序指令还可以被加载到计算机、其他可编程数据处理装置或其他设备上,以使一系列操作步骤将在计算机、其他可编程装置或其他设备上执行,以产生计算机实现的过程,以使得在计算机、其他可编程装置或其他设备上执行的指令实现流程图和/或框图的一个或多个框中指定的功能/动作。
附图中的流程图和框图示出了根据本发明的各种实施例的系统、方法和计算机程序产品的可能实现的架构、功能和操作。在这点上,流程图或框图中的每个框可以表示指令的模块、段或部分,其包括用于实现指定的逻辑功能的一个或多个可执行指令。在一些替代实施方案中,框中所注明的功能可不按图中所注明的次序发生。例如,连续示出的两个框实际上可以基本上同时执行,或者这些框有时可以以相反的顺序执行,这取决于所涉及的功能。还将注意,框图和/或流程图图示的每个框以及框图和/或流程图图示中的框的组合可以由执行指定功能或动作或执行专用硬件和计算机指令的组合的专用的基于硬件的系统来实现。

Claims (20)

1.一种用于由处理器在计算环境中提供对非易失性存储器的直接访问的方法,包括:
经由应用编程接口“API”向一个或多个加速器提供对非易失性存储装置的直接访问而在控制路径或数据路径上与主机中央处理单元“CPU”无关,从而执行数据的读操作和写操作。
2.根据权利要求1所述的方法,还包括:在所述一个或多个加速器的存储器地址空间中映射一个或多个非易失性存储器快速“NVMe”队列和寄存器。
3.根据权利要求1所述的方法,还包括:使用所述一个或多个加速器的存储器中由所述一个或多个加速器管理的页面缓存,以利用所述数据中的局部性。
4.根据权利要求1所述的方法,还包括:使用多个加速器的存储器中由所述一个或多个加速器管理的分布式页面缓存,以利用所述数据中的局部性。
5.根据权利要求1所述的方法,还包括:
将一个或多个页面从所述非易失性存储装置复制到页面缓存,并更新页面映射表;或者
在将所述数据从所述非易失性存储装置复制到所述一个或多个加速器时,从所述控制路径或所述数据路径中移除所述主机CPU。
6.根据权利要求1所述的方法,还包括:用所述API预取所述数据,以及保存计算周期以重叠计算和所述数据的移动。
7.根据权利要求1所述的方法,还包括:
在接收到由所述一个或多个加速器发起的用于所述数据的所述读操作或所述写操作的一个或多个API调用时,确定页面缓存未命中的发生;
将一个或多个页面从一个或多个非易失性存储器快速“NVMe”数据缓冲区复制到页面缓存;以及
更新页面映射表。
8.一种用于提供对非易失性存储器的直接访问的系统,包括:
具有可执行指令的一个或多个计算机,所述可执行指令在被执行时使所述系统:
经由应用编程接口“API”向一个或多个加速器提供对非易失性存储装置的直接访问而在控制路径或数据路径上与主机中央处理单元“CPU”无关,从而执行数据的读操作和写操作。
9.根据权利要求8所述的系统,其中,所述可执行指令在所述一个或多个加速器的存储器地址空间中映射一个或多个非易失性存储器快速“NVMe”队列和寄存器。
10.根据权利要求8所述的系统,其中,所述可执行指令使用所述一个或多个加速器的存储器中由所述一个或多个加速器管理的页面缓存,以利用所述数据中的局部性。
11.根据权利要求8所述的系统,其中,所述可执行指令使用多个加速器的存储器中由所述一个或多个加速器管理的分布式页面缓存,以利用所述数据中的局部性。
12.根据权利要求8所述的系统,其中,所述可执行指令:
将一个或多个页面从所述非易失性存储装置复制到页面缓存,并更新页面映射表;或者
在将所述数据从所述非易失性存储装置复制到所述一个或多个加速器时,从所述控制路径或所述数据路径中移除所述主机CPU。
13.根据权利要求8所述的系统,其中,所述可执行指令用所述API预取所述数据,并且保存每个计算周期以重叠计算和所述数据的移动。
14.根据权利要求8所述的系统,其中,所述可执行指令:
在接收到由所述一个或多个加速器发起的用于所述数据的所述读操作或所述写操作的一个或多个API调用时,确定页面缓存未命中的发生;
将一个或多个页面从一个或多个非易失性存储器快速“NVMe”数据缓冲区复制到页面缓存;以及
更新页面映射表。
15.一种用于由处理器提供对非易失性存储器的直接访问的计算机程序产品,所述计算机程序产品包括在其中存储计算机可读程序代码部分的非暂时性计算机可读存储介质,所述计算机可读程序代码部分包括:
可执行部分,其经由应用编程接口“API”向一个或多个加速器提供对非易失性存储装置的直接访问而在控制路径或数据路径上与主机中央处理单元“CPU”无关,从而执行数据的读操作和写操作。
16.根据权利要求15所述的计算机程序产品,还包括:可执行部分,其在所述一个或多个加速器的存储器地址空间中映射一个或多个非易失性存储器快速“NVMe”队列和寄存器。
17.根据权利要求15所述的计算机程序产品,还包括:可执行部分,其:
使用所述一个或多个加速器的存储器中由所述一个或多个加速器管理的页面缓存,以利用所述数据中的局部性;或者
使用多个加速器的存储器中由所述一个或多个加速器管理的分布式页面缓存,以利用所述数据中的局部性。
18.根据权利要求15所述的计算机程序产品,还包括:可执行部分,其:
将一个或多个页面从所述非易失性存储装置复制到页面缓存,并更新页面映射表;或者
在将所述数据从所述非易失性存储装置复制到所述一个或多个加速器时,从所述控制路径或所述数据路径中移除所述主机CPU。
19.根据权利要求15所述的计算机程序产品,还包括:可执行部分,其用所述API预取所述数据,并保存每个计算周期以重叠计算和所述数据的移动。
20.根据权利要求15所述的计算机程序产品,还包括:可执行部分,其:
在接收到由所述一个或多个加速器发起的用于所述数据的所述读操作或所述写操作的一个或多个API调用时,确定页面缓存未命中的发生;
将一个或多个页面从一个或多个非易失性存储器快速“NVMe”数据缓冲区复制到页面缓存;以及
更新页面映射表。
CN202080073393.2A 2019-10-17 2020-10-13 在计算环境中提供加速器与存储装置之间的直接数据访问 Pending CN115413338A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/656,295 US11048447B2 (en) 2019-10-17 2019-10-17 Providing direct data access between accelerators and storage in a computing environment, wherein the direct data access is independent of host CPU and the host CPU transfers object map identifying object of the data
US16/656,295 2019-10-17
PCT/IB2020/059590 WO2021074779A1 (en) 2019-10-17 2020-10-13 Providing direct data access between accelerators and storage in computing environment

Publications (1)

Publication Number Publication Date
CN115413338A true CN115413338A (zh) 2022-11-29

Family

ID=75491161

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080073393.2A Pending CN115413338A (zh) 2019-10-17 2020-10-13 在计算环境中提供加速器与存储装置之间的直接数据访问

Country Status (6)

Country Link
US (1) US11048447B2 (zh)
JP (1) JP2022552393A (zh)
CN (1) CN115413338A (zh)
DE (1) DE112020004181T5 (zh)
GB (1) GB2604785B (zh)
WO (1) WO2021074779A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210093531A (ko) * 2020-01-20 2021-07-28 에스케이하이닉스 주식회사 응용 프로세서와 데이터를 제공하는 데이터 저장 장치를 포함하는 시스템
US20210406170A1 (en) * 2020-06-24 2021-12-30 MemRay Corporation Flash-Based Coprocessor
US20220413732A1 (en) * 2021-06-28 2022-12-29 Advanced Micro Devices, Inc. System and method for transferring data from non-volatile memory to a process accelerator
US11836133B2 (en) 2021-07-19 2023-12-05 Samsung Electronics Co., Ltd. In-memory database (IMDB) acceleration through near data processing
US11941295B2 (en) * 2022-01-11 2024-03-26 Western Digital Technologies, Inc. Data storage device and method for providing an adaptive data path
CN114489506B (zh) * 2022-01-21 2024-02-27 杭州海康存储科技有限公司 存储访问控制装置、方法及存储设备
CN115168259B (zh) * 2022-09-06 2023-01-24 浪潮电子信息产业股份有限公司 一种数据存取方法、装置、设备和计算机可读存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6919895B1 (en) * 1999-03-22 2005-07-19 Nvidia Corporation Texture caching arrangement for a computer graphics accelerator
JP2006289797A (ja) * 2005-04-11 2006-10-26 Canon Inc 印刷制御装置、その制御方法及びプログラム
US8866827B2 (en) 2008-06-26 2014-10-21 Microsoft Corporation Bulk-synchronous graphics processing unit programming
US8391068B2 (en) * 2010-12-20 2013-03-05 Texas Instruments Incorporated Adaptive programming for flash memories
CN103473188B (zh) * 2013-09-12 2017-04-26 华为技术有限公司 Dsp处理器与外部存储器的数据交互方法、装置及系统
US10120832B2 (en) * 2014-05-27 2018-11-06 Mellanox Technologies, Ltd. Direct access to local memory in a PCI-E device
US9582463B2 (en) * 2014-12-09 2017-02-28 Intel Corporation Heterogeneous input/output (I/O) using remote direct memory access (RDMA) and active message
US10147158B2 (en) 2014-12-13 2018-12-04 Microsoft Technology Licensing, Llc Frame invalidation control with causality attribution
US9703670B2 (en) 2015-01-06 2017-07-11 Microsoft Technology Licensing, Llc Performance state machine control with aggregation insertion
US10216419B2 (en) * 2015-11-19 2019-02-26 HGST Netherlands B.V. Direct interface between graphics processing unit and data storage unit
KR101923661B1 (ko) * 2016-04-04 2018-11-29 주식회사 맴레이 플래시 기반 가속기 및 이를 포함하는 컴퓨팅 디바이스
US10489881B2 (en) * 2017-06-30 2019-11-26 H3 Platform Inc. Direct memory access for co-processor memory

Also Published As

Publication number Publication date
US20210117333A1 (en) 2021-04-22
WO2021074779A1 (en) 2021-04-22
DE112020004181T5 (de) 2022-06-23
GB2604785A (en) 2022-09-14
GB2604785B (en) 2023-10-04
US11048447B2 (en) 2021-06-29
JP2022552393A (ja) 2022-12-15

Similar Documents

Publication Publication Date Title
US11048447B2 (en) Providing direct data access between accelerators and storage in a computing environment, wherein the direct data access is independent of host CPU and the host CPU transfers object map identifying object of the data
US10467152B2 (en) Dynamic cache management for in-memory data analytic platforms
US20190235904A1 (en) Cloning services in virtualized computing systems
US10204175B2 (en) Dynamic memory tuning for in-memory data analytic platforms
US10893120B2 (en) Data caching and data-aware placement to accelerate machine learning applications
US10248346B2 (en) Modular architecture for extreme-scale distributed processing applications
US9639459B2 (en) I/O latency and IOPs performance in thin provisioned volumes
US10572385B2 (en) Granting exclusive cache access using locality cache coherency state
US10031886B2 (en) Remote direct memory access-based method of transferring arrays of objects including garbage data
AU2021269201B2 (en) Utilizing coherently attached interfaces in a network stack framework
US11099952B2 (en) Leveraging server side cache in failover scenario
US10210007B2 (en) Parallel mapping of client partition memory to multiple physical adapters
US10289306B1 (en) Data storage system with core-affined thread processing of data movement requests
US11126371B2 (en) Caching file data within a clustered computing system
US11481255B2 (en) Management of memory pages for a set of non-consecutive work elements in work queue designated by a sliding window for execution on a coherent accelerator
US11030100B1 (en) Expansion of HBA write cache using NVDIMM
US9176910B2 (en) Sending a next request to a resource before a completion interrupt for a previous request
US11252232B2 (en) NVME-of queue management in host clusters
US10599334B2 (en) Use of capi-attached storage as extended memory
US10176120B2 (en) Cache prefetching in offloaded data transfer (ODX)

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination