CN112313636A - 用于gpu发起的通信的网络分组模板化 - Google Patents
用于gpu发起的通信的网络分组模板化 Download PDFInfo
- Publication number
- CN112313636A CN112313636A CN201980040626.6A CN201980040626A CN112313636A CN 112313636 A CN112313636 A CN 112313636A CN 201980040626 A CN201980040626 A CN 201980040626A CN 112313636 A CN112313636 A CN 112313636A
- Authority
- CN
- China
- Prior art keywords
- network packet
- processor
- subset
- fields
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 38
- 230000015654 memory Effects 0.000 claims abstract description 29
- 230000004044 response Effects 0.000 claims abstract description 14
- 230000008569 process Effects 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 11
- 230000003068 static effect Effects 0.000 claims abstract description 9
- 230000000977 initiatory effect Effects 0.000 claims 3
- 238000010586 diagram Methods 0.000 description 15
- 230000007246 mechanism Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/546—Message passing systems or structures, e.g. queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/023—Free address space management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
- G06F15/163—Interprocessor communication
- G06F15/17—Interprocessor communication using an input/output type connection, e.g. channel, I/O port
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L49/00—Packet switching elements
- H04L49/90—Buffering arrangements
- H04L49/9063—Intermediate storage in different physical parts of a node or terminal
- H04L49/9068—Intermediate storage in different physical parts of a node or terminal in the network interface card
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/30—Definitions, standards or architectural aspects of layered protocol stacks
- H04L69/32—Architecture of open systems interconnection [OSI] 7-layer type protocol stacks, e.g. the interfaces between the data link level and the physical level
- H04L69/321—Interlayer communication protocols or service data unit [SDU] definitions; Interfaces between layers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1016—Performance improvement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L49/00—Packet switching elements
- H04L49/90—Buffering arrangements
- H04L49/9042—Separate storage for different parts of the packet, e.g. header and payload
Abstract
公开了用于执行图形处理单元(GPU)发起的通信的网络分组模板化的系统、设备以及方法。中央处理单元(CPU)根据模板创建网络分组,并且用静态数据填充所述网络分组的第一字段子集。接下来,所述CPU将所述网络分组存储在存储器中。GPU发起内核的执行,并且在所述内核完成执行之前在所述内核内检测网络通信请求。响应于此确定,所述GPU用运行时数据填充所述网络分组的第二字段子集。然后,所述GPU生成所述网络分组已准备好被处理的通知。网络接口控制器(NIC)响应于检测到所述通知而使用从第一字段子集和从第二字段子集检索到的数据来处理网络分组。
Description
背景技术
本发明是在美国劳伦斯·利弗莫尔国家安全局的PathForward项目(美国能源部授予的主要合同编号DE-AC52-07NA27344,分包合同编号B620717)的政府支持下完成的。美国政府具有本发明中的某些权利。
相关技术说明
通用处理器(诸如中央处理单元(CPU))通常执行软件应用程序的输入/输出(I/O)操作。在包括多个处理器的系统中,CPU可能是唯一可以生成网络消息的处理器。除了通用处理器之外,该系统还可以包括数据并行处理器。数据并行处理器具有高度并行的执行架构。数据并行处理器可以包括图形处理单元(GPU)、数字信号处理器(DSP)等等。数据并行处理器在等待CPU代表其来协调网络通信时会导致计算延迟。在具有CPU和GPU的计算系统中,CPU通常被称为“主机”。在这些系统中,就网络操作而言,GPU是二等公民。这限制了GPU发起网络操作的能力,并且要求CPU参与GPU启动的任何网络操作。使用主机为GPU生成网络消息可能会涉及从GPU到主机以及从主机到网络接口的若干次背对背往返,从而导致性能降低。
附图说明
通过结合附图参考以下描述,可以更好地理解本文描述的方法和机制的优点,在附图中:
图1是计算系统的一个实现方式的框图。
图2是计算系统的另一实现方式的框图。
图3示出了将网络控制路径从CPU卸载到GPU的一个实现方式的时序图。
图4示出了用于存储网络分组模板的队列的一个实现方式的图。
图5示出了网络分组模板的一个实现方式的图。
图6示出了网络分组模板的另一实现方式的图。
图7是示出用于创建和使用网络分组模板的方法的一个实现方式的通用流程图。
图8是示出用于确定何时将网络分组模板添加到队列中的方法的一个实现方式的通用流程图。
图9是示出用于确定何时将网络分组模板添加到队列中的方法的另一实现方式的通用流程图。
具体实施方式
在以下描述中,阐述了众多具体细节以提供对本文所呈现方法和机制的透彻理解。然而,本领域普通技术人员应认识到,可在没有这些具体细节的情况下实践各种实现方式。在一些情况下,并未详细示出众所周知的结构、部件、信号、计算机程序指令和技术,以避免混淆本文描述的方法。应当理解,为了说明的简单和清楚起见,附图中所示的元件不一定按比例绘制。例如,一些元件的尺寸可相对于其他元件被放大。
本文公开了用于实现网络分组模板化的各种系统、装置以及方法。第一处理器(例如,中央处理单元(CPU))根据模板创建网络分组,并且用静态数据填充网络分组的第一字段子集。接下来,第一处理器将网络分组存储在存储器中。第二处理器(例如,图形处理单元(GPU))发起内核的执行并且在内核完成执行之前检测网络通信请求。响应于检测到网络通信请求,第二处理器用运行时数据填充网络分组的第二字段子集。然后,第二处理器生成网络分组已准备好被处理的通知。网络接口控制器(NIC)响应于检测到所述通知而使用从第一字段子集和从第二字段子集检索到的数据来处理网络分组。
在一个实现方式中,循环缓冲器被维持在可由第一和第二处理器访问的存储器中。循环缓冲器存储多个网络分组。在一个实现方式中,第一处理器周期性地检查循环缓冲器的状态,并且如果现有网络分组的数目低于阈值,则第一处理器将一个或多个网络分组添加到循环缓冲器。当将网络分组添加到循环缓冲器时,第一处理器填充被添加到循环缓冲器的每个网络分组的第一字段子集。在一个实现方式中,第一字段子集包括网络控制位字段和存储器访问密钥字段。在一个实现方式中,第二字段子集包括源偏移字段、目的地偏移字段以及操作类型字段。
现在参考图1,示出了计算系统100的一个实现方式的框图。在一个实现方式中,计算系统100至少包括处理器105A至105N、输入/输出(I/O)接口120、总线125、一个或多个存储器控制器130、网络接口控制器(NIC)135和一个或多个存储器装置140。在其他实现方式中,计算系统100包括其他部件并且/或者计算系统100以不同方式布置。处理器105A至105N表示系统100中包括的任何数目的处理器。在一个实现方式中,处理器105A是通用处理器,诸如中央处理单元(CPU)。在一个实现方式中,处理器105N是具有高度并行架构的数据并行处理器。数据并行处理器包括图形处理单元(GPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)等等。在一些实现方式中,处理器105A至105N包括多个数据并行处理器。
一个或多个存储器控制器130表示可由处理器105A至105N和耦接到I/O接口120的I/O装置(未示出)访问的任何数目和类型的存储器控制器。一个或多个存储器控制器130耦接到任何数目和类型的一个或多个存储器装置140。一个或多个存储器装置140表示任何数目和类型的存储器装置。例如,一个或多个存储器装置140中的存储器的类型包括动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、NAND闪存存储器、NOR闪存存储器、铁电随机存取存储器(FeRAM)等。在一个实现方式中,给定的存储器装置140包括循环缓冲器150,以用于存储由第一处理器105A根据网络分组模板生成的新创建的网络分组。第一处理器105A用静态信息填充每个新创建的网络分组。在一个实现方式中,给定的存储器装置140在第二处理器105N本地。当第二处理器准备好发起网络传输时,第二处理器105N用动态的运行时信息更新存储在循环缓冲器150中的网络分组,并且然后第二处理器105N通知NIC 135网络分组已准备好被处理。NIC 135处理网络分组并且在网络145上执行所请求的网络通信。如本文所使用的,网络分组是具有多个字段的格式化的数据结构,其中该数据结构由第一处理器105A创建并且由第二处理器105B更新。换句话说,网络分组是格式化的数据结构,其具有被第一处理器105A写入的第一字段子集以及被第二处理器105N写入和/或更新的第二字段子集。
I/O接口120表示任何数目和类型的I/O接口(例如,外围部件互连(PCI)总线、PCI扩展(PCI-X)、PCIE(PCI快速)总线、吉比特以太网(GBE)总线、通用串行总线(USB))。各种类型的外围装置(未示出)耦接到I/O接口120。此类外围装置包括(但不限于)显示器、键盘、鼠标、打印机、扫描仪、操纵杆或其他类型的游戏控制器、媒体记录装置、外部存储装置、网络接口卡等。网络接口控制器(NIC)135跨网络145接收和发送网络消息。在一个实现方式中,给定的处理器105N生成用于NIC 135处理网络分组的请求。在一个实现方式中,NIC 135在不涉及处理器105A的情况下处理由处理器105N生成的请求。在此实现方式中,处理器105A是CPU并且处理器105N是GPU。在其他实现方式中,其他类型的处理器能够执行这些动作。
网络145表示任何类型的网络或网络的组合,包括无线连接、直接局域网(LAN)、城域网(MAN)、广域网(WAN)、内联网、互联网、有线网络、分组交换网络、光纤网络、路由器、存储区域网络,或其他类型的网络。LAN的示例包括以太网网络、光纤分布式数据接口(FDDI)网络和令牌环网络。在各种实现方式中,网络145还包括远程直接存储器访问(RDMA)硬件和/或软件、传输控制协议/互联网协议(TCP/IP)硬件和/或软件、路由器、中继器、交换机、电网和/或其他部件。
在各种实现方式中,计算系统100是计算机、膝上型计算机、移动装置、游戏控制台、服务器、流式传输装置、可穿戴装置或者各种其他类型的计算系统或装置中的任一种。应注意,计算系统100的部件的数目随实现方式的不同而不同。例如,在其他实现方式中,存在与图1中示出的数目相比更多或更少的每种部件。还应注意的是,在其他实现方式中,计算系统100包括图1中未示出的其他部件。附加地,在其他实现方式中,计算系统100以与图1中所示不同的方式进行结构化。
现在转到图2,示出了计算系统200的另一实现方式的框图。在一个实现方式中,系统200包括GPU 205、系统存储器225和本地存储器230。系统200还包括其他部件,这些部件并未示出以避免使附图变得模糊。GPU 205至少包括命令处理器235、分派单元250、计算单元255A至255N、存储器控制器220、全局数据共享270、一级(L1)高速缓存265以及二级(L2)高速缓存260。在其他实现方式中,即使在图2中仅示出一个实例和/或仅一个实例以其他合适的方式组织,GPU 205也可能包括其他部件、省略所示出的部件中的一个或多个、具有部件的多个实例。
在各种实现方式中,计算系统200执行各种类型的软件应用程序中的任一种。在一个实现方式中,作为执行给定软件应用程序的一部分,计算系统200的主机CPU(未示出)启动要在GPU 205上执行的内核。如本文所使用的,术语“内核”或“计算内核”被定义为包括可执行指令的功能或任务,可执行指令作为一个或多个线程在一个或多个计算单元上被启动和执行。命令处理器235从主机CPU接收内核,并将内核发布到分派单元250,以分派到计算单元255A至255N。在计算单元255A至255N上执行的内核内的线程通过用运行时信息更新存储在循环缓冲器240中的网络分组并且然后通知NIC(未示出)来发起网络通信。NIC响应于接收到相应的通知来处理给定的网络分组。尽管图2中未示出,但是在一个实现方式中,计算单元255A至255N也在每个计算单元255A至255N内包括一个或多个高速缓存和/或本地存储器。
现在转到图3,示出了将网络控制路径从CPU卸载到GPU的一个实现方式的时序图300。在一个实现方式中,CPU 320在GPU 325上启动内核335,并且然后GPU 325独立于CPU320执行内核335。当GPU 325执行内核335时,CPU 320能够执行其他任务。在一些实现方式中,CPU 320耦接到其他GPU,并且CPU 320能够在其他GPU上启动内核,这些内核与GPU 325上的内核335并行执行。CPU 320根据模板生成网络分组,并且填充每个网络分组的字段的一部分。然后,CPU 320将每个网络分组存储在GPU 325和NIC 315可访问的位置。CPU 320提前生成网络分组,而无需等待来自GPU 325的明确请求。
在内核335执行期间并且无需等待内核335完成,GPU 325填充给定网络分组的字段的其余部分,并且然后GPU 325将网络分组请求发送到网络接口控制器(NIC)315,如发送框340所示。应注意,GPU 325将此网络请求发送到NIC 315,而无需CPU 320的任何参与。NIC315处理网络分组请求,并将请求放置在网络上,同时内核335继续执行,如放置框345所示。尽管在图3中未示出,但应注意,内核335能够将多个网络分组请求发送到NIC 315,在内核335执行期间由NIC 315处理所述多个网络分组请求。在稍后的时间点,内核335的执行完成,这由完成框350表示。
现在转到图4,示出了用于存储网络分组的队列400的一个实现方式的图。在一个实现方式中,队列400是循环队列,其中基于先进先出(first in first out,FIFO)原理执行操作,并且最后位置连接回到第一位置以形成圆圈。应注意,“循环队列”在本文中也被称为“循环缓冲器”。在其他实现方式中,使用各种其他类型的数据结构中的任一种来实现队列400。在一个实现方式中,队列400由包括CPU、GPU和NIC的计算系统使用。
在一个实现方式中,CPU 415将网络分组添加到队列400,其中根据网络分组模板来生成每个网络分组。如本文所使用的,“网络分组模板”被定义为由第一处理器创建的通信分组的结构,但是具有要由第二处理器填充和/或更新的一个或多个空字段。换句话说,“网络分组模板”定义了通信分组的结构,但是通信分组的内容的至少一部分将由第二处理器填充。通常,CPU 415在将分组存储在队列400中的可用槽位处之前将用静态信息(例如,网络控制位、存储器访问密钥(Rkey))填充网络分组的字段的一部分。在第二处理器将第二字段子集写入网络分组之后,将通知传送到NIC 420以处理网络分组。换句话说,一旦第二处理器完成了所有字段的填写并且为NIC 420生成了通知,则网络分组准备就绪。在一个实现方式中,第二处理器通过将通知写入门铃寄存器来通知NIC 420网络分组准备就绪。在其他实现方式中,第二处理器使用其他技术将通知传送到NIC 420。
在一个实现方式中,CPU 415周期性地将新创建的网络分组添加到队列400。例如,CPU 415周期性地检查队列400的状态。在一个实现方式中,每个队列条目包括有效指示符,以指示该队列条目是否存储了有效网络分组。应注意,“队列条目”在本文中也称为“队列槽位”。在一个实现方式中,如果队列400中存在任何未使用的(即,可用的)槽位,如有效指示符所示,则CPU 415将一个或多个网络分组添加到队列400的这些空条目。在另一实现方式中,如果当前存储在队列400中的网络分组的数目小于阈值,则CPU 415将一个或多个网络分组添加到队列400的可用槽位。在各种实现方式中,基于可用槽位的数目,CPU 415添加到队列400中的415个网络分组的数目是固定的、可编程的,或者是以其他合适的方式确定的。
在一个实现方式中,NIC 420维持指向队列400中待处理的下一位置的指针。在NIC420接收到通知并且处理网络分组之后,NIC 420使指针递增以指向队列中的下一位置。类似地,GPU 425维持指向队列400中的一个位置的指针,该位置存储了准备好被NIC 420修改然后处理的网络分组。在一个实现方式中,由GPU 425维持的指针与由NIC 420维持的指针偏移一个队列元素。类似地,在一个实现方式中,CPU 415维持一个指针,该指针指向队列400中用于存储新创建的网络分组的可用位置。
在一个实现方式中,CPU 415查询队列400的条目以确定是否存在任何条目可用于存储新创建的网络分组。在一个实现方式中,如果CPU 415在队列400中检测到可用条目,则CPU 415生成新的网络分组并将网络分组存储在可用条目中。在另一实现方式中,如果CPU415在队列400中检测到可用条目并且满足第一条件,则CPU 415生成新的网络分组并将网络分组存储在可用条目中。在一个实现方式中,第一条件是队列400具有少于阈值数目的准备好被GPU 425使用的网络分组。在其他实现方式中,第一条件是各种其他类型的条件中的任一种。在各种实现方式中,CPU 415提前并且在关键路径之外创建网络分组。以这种方式,当GPU 425需要生成网络分组时,GPU 425实时访问存储在队列400上的网络分组,并且设置网络分组供NIC 420立即使用,而无需CPU 415的任何参与。
现在参考图5,示出了网络分组模板505的一个实现方式的图。在各种实现方式中,如本文所述的网络分组模板包括具有各种静态和运行时信息的多个指示符和/或字段。例如,在一个实现方式中,网络分组模板505包括有效指示符510、分组就绪指示符515以及多个字段520A至520N。在其他实现方式中,网络分组模板505包括其他数目和/或类型的指示符和字段并且/或者网络分组模板505以其他合适的方式进行结构化。
在一个实现方式中,有效指示符510指示条目是否存储了有效网络分组。有效网络分组是已经由第一处理器(例如,CPU)创建和初始化并且准备好被第二处理器(例如,GPU、存储器中处理(processing in memory,PIM)装置)更新的分组。在一个实现方式中,分组就绪指示符515指定条目何时存储准备好被NIC处理的网络分组。在各种实现方式中,字段520A至520N存储各种网络通信设置中的任一种。在一个实现方式中,当根据网络分组模板505创建网络分组时,第一处理器对第一字段子集520A至520N进行编程,并且当第二处理器需要发起网络传输时,对第二字段子集520A至520N进行实时编程。
现在转到图6,示出了网络分组模板605的另一实现方式的图。在一个实现方式中,网络分组模板605包括有效指示符610和分组就绪指示符615。网络分组模板605还包括网络控制位620和存储器访问密钥625。在一个实现方式中,当根据模板605创建网络分组并将网络分组存储在可由第二处理器(例如,GPU)访问的存储器中的队列(例如,图4的队列400)上时,第一处理器(例如,CPU)填写用于网络控制位620和存储器访问密钥625的字段。尽管未示出,但是在其他实现方式中,网络分组模板605还包括一个或多个其他字段,当在队列中创建和存储网络分组时,字段由第一处理器填充。
网络分组模板605还包括由第二处理器动态地用运行时信息填充的各种字段。例如,在一个实现方式中,网络分组模板605包括由第二处理器用运行时信息填充的源偏移630、目的地偏移635以及操作类型640。源偏移630指定在源缓冲器或源存储器装置中的何处开始数据传送。目的地偏移635指定在目的地缓冲器或目的地存储器装置中的何处存储所传送的数据。操作类型640指定要执行的操作的类型(例如,读、写、原子的)。应注意,在其他实现方式中,网络分组模板605包括由第二处理器动态地用运行时信息填充的其他数目和类型的字段。而且,在进一步的实现方式中,网络分组模板605以其他合适的方式进行结构化。
现在参考图7,示出了用于创建和使用网络分组模板的方法700的一个实现方式。出于论述的目的,按顺序次序示出此实现方式中的步骤和图8的那些步骤。然而,应注意,在所描述的方法的各种实现方式中,所描述的要素中的一个或多个同时执行,以不同于所示的次序执行,或者被完全省略。还可根据需要执行其他另外的元件。本文所述的各种系统或装置中的任一者被配置为实现方法700。
第一处理器根据模板创建网络分组,并且填充该网络分组的第一字段子集(框705)。在一个实现方式中,第一处理器是CPU。第一处理器将网络分组存储在可由第二处理器访问的位置(框710)。在一个实现方式中,第一处理器在没有从第二处理器接收到对网络分组模板的明确请求的情况下执行步骤705和710。这允许步骤705和710提前并且在关键路径之外执行。在一个实现方式中,没有为由第一处理器存储的网络分组设置就绪标志,以指示所述网络分组尚未准备好被NIC处理。未设置就绪标志还指示第二处理器仍需要在网络分组准备就绪之前向网络分组添加更多数据。
而且,第一处理器在第二处理器上启动内核(框715)。在一个实现方式中,第二处理器是GPU。应注意,步骤715有时与步骤705和710并行执行,或者在步骤705和710之前执行。接下来,在内核执行期间,第二处理器响应于由内核检测到网络通信请求而填充网络分组的第二字段子集(框720)。然后,第二处理器通知NIC:网络分组已准备好被处理(框725)。接下来,NIC使用从第一字段子集和从第二字段子集检索到的数据来处理网络分组(框730)。在框730之后,方法700结束。
现在转到图8,示出了用于确定何时将网络分组模板添加到队列中的方法800的一个实现方式。第一处理器监测存储网络分组的队列的状态(框805)。如果检测到针对队列的第一条件(条件框810,“是”分支),则第一处理器创建一个或多个网络分组并将其添加到队列(框815)。在一个实现方式中,第一条件是队列的占用水平低于阈值,其中占用水平被指定为存储在队列中并准备好被第二处理器填充的有效网络分组的数目。在一个实现方式中,阈值由第二处理器编程,该第二处理器更新存储在队列中的网络分组。在此实现方式中,第二处理器基于第二处理器当前正在执行的内核的状态来调整阈值。例如,在一个实现方式中,如果第二处理器执行正在生成相对大量网络请求的内核,则第二处理器动态地降低阈值以确保第一处理器在队列上保留大量网络分组。在其他实现方式中,第二处理器基于一个或多个其他因素来调整阈值。
在另一实现方式中,第一条件是队列具有一个或多个用于存储网络分组的可用槽位。在其他实现方式中,第一条件是各种其他类型的条件中的任一种。如果未检测到针对队列的第一条件(条件框810,“否”分支),则第一处理器在再次检查队列的状态之前等待可编程的时间量(框820)。在一个实现方式中,可编程的时间量由第二处理器基于与当前正在执行的内核相关联的一个或多个因素来确定。在框820之后,方法800返回到框805。
现在参考图9,示出了用于确定何时将网络分组模板添加到队列中的方法900的另一实现方式。在具有第一处理器(例如,CPU)和第二处理器(例如,GPU)的系统中,第二处理器监测存储网络分组的队列的状态(框905)。如果检测到针对队列的第一条件(条件框910,“是”分支),则第二处理器为第一处理器生成中断以创建一个或多个网络分组并将其添加到队列(框915)。响应于接收到该中断,第一处理器创建一个或多个网络分组并将其添加到队列(框920)。
在一个实现方式中,第一条件是队列的占用水平低于阈值,其中占用水平被指定为存储在队列中并且准备好被第二处理器填充一个或多个字段的有效网络分组的数目。在另一实现方式中,第一条件是队列具有一个或多个用于存储网络分组的可用槽位。在其他实现方式中,第一条件是各种其他类型的条件中的任一种。如果未检测到针对队列的第一条件(条件框910,“否”分支),则第二处理器在再次检查队列的状态之前等待可编程的时间量(框925)。在框925之后,方法900返回到框905。
在各种实现方式中,使用软件应用程序的程序指令来实现本文所述的方法和/或机制。例如,可由通用或专用处理器执行的程序指令是预期的。在各种实现方式中,此类程序指令由高级编程语言表示。在其他实现方式中,程序指令从高级编程语言编译成二进制形式、中间形式或其他形式。替代地,写入描述硬件的行为或设计的程序指令。此类程序指令由诸如C的高级编程语言表示。替代地,使用诸如Verilog的硬件设计语言(HDL)。在各种实现方式中,程序指令存储在多种非暂时性计算机可读存储介质中的任一种上。在使用期间,计算系统可访问存储介质,以将程序指令提供到计算系统以用于程序执行。一般来讲,此类计算系统至少包括一个或多个存储器和被配置为执行程序指令的一个或多个处理器。
应当强调的是,上述实现方式仅是实现方式的非限制性示例。一旦完全明了以上公开内容,许多变化和修改对于本领域技术人员而言将变得显而易见。以下权利要求意图解释为包含所有此类变化和修改。
Claims (20)
1.一种系统,其包括:
存储器;
第一处理器,所述第一处理器被配置为:
根据模板创建网络分组,并且填充所述网络分组的第一字段子集;以及
将所述网络分组存储在所述存储器中;
第二处理器,所述第二处理器被配置为:
发起内核的执行;
响应于在所述内核内检测到网络通信请求并且在所述内核完成执行之前:
填充所述网络分组的第二字段子集;以及
生成所述网络分组已准备好被处理的通知;
网络接口控制器,所述网络接口控制器被配置为在所述内核完成执行之前响应于检测到所述通知来处理所述网络分组。
2.如权利要求1所述的系统,其中所述网络接口控制器使用从所述第一字段子集和从所述第二字段子集检索到的数据来处理所述网络分组。
3.如权利要求1所述的系统,其中所述第一字段子集包括静态数据,并且其中所述第二字段子集包括运行时数据。
4.如权利要求1所述的系统,其中所述第一字段子集包括网络控制位字段和存储器访问密钥字段,并且其中所述第二字段子集包括源偏移字段、目的地偏移字段以及操作类型字段。
5.如权利要求1所述的系统,其中所述第一处理器被配置为在所述第二处理器检测到所述网络通信请求之前,创建所述网络分组并且填充网络分组模板的所述第一字段子集。
6.如权利要求1所述的系统,其中所述第一处理器被配置为仅响应于检测到第一条件而根据模板创建所述网络分组并且将所述网络分组存储在队列上。
7.如权利要求6所述的系统,其中所述第一条件是所述队列的占用水平低于阈值。
8.一种方法,其包括:
由第一处理器根据模板创建网络分组,并且填充所述网络分组的第一字段子集;
由所述第一处理器将所述网络分组存储在存储器中;
在第二处理器上发起内核的执行;
响应于在所述内核内检测到网络通信请求并且在所述内核完成执行之前:
由所述第二处理器填充所述网络分组的第二字段子集;
由所述第二处理器生成网络分组模板已准备好被处理的通知;以及
由网络接口控制器响应于检测到所述通知并且在所述内核完成在所述第二处理器上的执行之前处理所述网络分组模板。
9.如权利要求8所述的方法,其还包括:使用从所述第一字段子集和从所述第二字段子集检索到的数据来处理所述网络分组。
10.如权利要求8所述的方法,其中所述第一字段子集包括静态数据,并且其中所述第二字段子集包括运行时数据。
11.如权利要求8所述的方法,其中所述第一字段子集包括网络控制位字段和存储器访问密钥字段,并且其中所述第二字段子集包括源偏移字段、目的地偏移字段以及操作类型字段。
12.如权利要求8所述的方法,其还包括:在所述第二处理器检测到所述网络通信请求之前,由所述第一处理器创建所述网络分组并且填充所述网络分组的所述第一字段子集。
13.如权利要求8所述的方法,其还包括:仅响应于检测到第一条件而由所述第一处理器根据模板创建所述网络分组并且将所述网络分组存储在队列上。
14.如权利要求13所述的方法,其中所述第一条件是所述队列的占用水平低于阈值。
15.一种处理器,其包括:
存储器;以及
多个计算单元;
其中所述处理器被配置为:
在所述多个计算单元中的一个或多个计算单元上发起内核的执行;
响应于在所述内核内检测到网络通信请求并且在所述内核完成执行之前:
在所述存储器内定位仅填充了第一字段子集的网络分组;
填充所述网络分组的第二字段子集;以及
生成网络分组模板已准备好被处理的通知。
16.如权利要求15所述的处理器,其中所述第一字段子集包括静态数据,并且其中所述第二字段子集包括运行时数据。
17.如权利要求15所述的处理器,其中所述第一字段子集包括网络控制位字段和存储器访问密钥字段,并且其中所述第二字段子集包括源偏移字段、目的地偏移字段以及操作类型字段。
18.如权利要求15所述的处理器,其中在所述处理器检测到所述网络通信请求之前,填充所述网络分组的第一字段子集。
19.如权利要求15所述的处理器,其中所述处理器还被配置为对阈值进行编程,以用于确定何时将填充了所述第一字段子集的网络分组添加到队列。
20.如权利要求15所述的处理器,其中所述处理器还被配置为将所述通知传达给网络接口控制器,以使得所述网络分组被处理。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/022,498 US10740163B2 (en) | 2018-06-28 | 2018-06-28 | Network packet templating for GPU-initiated communication |
US16/022,498 | 2018-06-28 | ||
PCT/US2019/029040 WO2020005377A1 (en) | 2018-06-28 | 2019-04-25 | Network packet templating for gpu-initiated communication |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112313636A true CN112313636A (zh) | 2021-02-02 |
Family
ID=67138012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980040626.6A Pending CN112313636A (zh) | 2018-06-28 | 2019-04-25 | 用于gpu发起的通信的网络分组模板化 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10740163B2 (zh) |
EP (1) | EP3814921A1 (zh) |
JP (1) | JP7461895B2 (zh) |
KR (1) | KR102523590B1 (zh) |
CN (1) | CN112313636A (zh) |
WO (1) | WO2020005377A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11861403B2 (en) * | 2020-10-15 | 2024-01-02 | Nxp Usa, Inc. | Method and system for accelerator thread management |
US11960813B2 (en) | 2021-08-02 | 2024-04-16 | Advanced Micro Devices, Inc. | Automatic redistribution layer via generation |
KR20230092227A (ko) * | 2021-12-17 | 2023-06-26 | 삼성전자주식회사 | 멀티코어 프로세서 및 스토리지 장치 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5613071A (en) * | 1995-07-14 | 1997-03-18 | Intel Corporation | Method and apparatus for providing remote memory access in a distributed memory multiprocessor system |
US20080198781A1 (en) * | 2007-02-20 | 2008-08-21 | Yasantha Rajakarunanayake | System and method for a software-based TCP/IP offload engine for implementing efficient digital media streaming over Internet protocol networks |
US20160127493A1 (en) * | 2014-11-04 | 2016-05-05 | Qlogic Corporation | Caching methods and systems using a network interface card |
US20170180272A1 (en) * | 2012-10-03 | 2017-06-22 | Tracey Bernath | System and method for accelerating network applications using an enhanced network interface and massively parallel distributed processing |
US20180107627A1 (en) * | 2016-10-18 | 2018-04-19 | Advanced Micro Devices, Inc. | Gpu remote communication with triggered operations |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9450780B2 (en) * | 2012-07-27 | 2016-09-20 | Intel Corporation | Packet processing approach to improve performance and energy efficiency for software routers |
US9319254B2 (en) * | 2012-08-03 | 2016-04-19 | Ati Technologies Ulc | Methods and systems for processing network messages in an accelerated processing device |
US9342384B1 (en) * | 2014-12-18 | 2016-05-17 | Intel Corporation | Function callback mechanism between a central processing unit (CPU) and an auxiliary processor |
US10331590B2 (en) | 2016-06-30 | 2019-06-25 | Intel Corporation | Graphics processing unit (GPU) as a programmable packet transfer mechanism |
-
2018
- 2018-06-28 US US16/022,498 patent/US10740163B2/en active Active
-
2019
- 2019-04-25 KR KR1020207037837A patent/KR102523590B1/ko active IP Right Grant
- 2019-04-25 WO PCT/US2019/029040 patent/WO2020005377A1/en active Application Filing
- 2019-04-25 CN CN201980040626.6A patent/CN112313636A/zh active Pending
- 2019-04-25 JP JP2020570420A patent/JP7461895B2/ja active Active
- 2019-04-25 EP EP19734943.4A patent/EP3814921A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5613071A (en) * | 1995-07-14 | 1997-03-18 | Intel Corporation | Method and apparatus for providing remote memory access in a distributed memory multiprocessor system |
US20080198781A1 (en) * | 2007-02-20 | 2008-08-21 | Yasantha Rajakarunanayake | System and method for a software-based TCP/IP offload engine for implementing efficient digital media streaming over Internet protocol networks |
US20170180272A1 (en) * | 2012-10-03 | 2017-06-22 | Tracey Bernath | System and method for accelerating network applications using an enhanced network interface and massively parallel distributed processing |
US20160127493A1 (en) * | 2014-11-04 | 2016-05-05 | Qlogic Corporation | Caching methods and systems using a network interface card |
US20180107627A1 (en) * | 2016-10-18 | 2018-04-19 | Advanced Micro Devices, Inc. | Gpu remote communication with triggered operations |
Also Published As
Publication number | Publication date |
---|---|
EP3814921A1 (en) | 2021-05-05 |
US20200004610A1 (en) | 2020-01-02 |
JP2021530022A (ja) | 2021-11-04 |
WO2020005377A1 (en) | 2020-01-02 |
US10740163B2 (en) | 2020-08-11 |
KR20210013732A (ko) | 2021-02-05 |
KR102523590B1 (ko) | 2023-04-19 |
JP7461895B2 (ja) | 2024-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3796179A1 (en) | System, apparatus and method for processing remote direct memory access operations with a device-attached memory | |
US8966222B2 (en) | Message passing in a cluster-on-chip computing environment | |
CN110678847A (zh) | 用于gpu任务调度的连续分析任务 | |
US20170308298A1 (en) | Simultaneous kernel mode and user mode access to a device using the nvme interface | |
JP7461895B2 (ja) | Gpu主導の通信のためのネットワークパケットテンプレーティング | |
US10782896B2 (en) | Local instruction ordering based on memory domains | |
US10152275B1 (en) | Reverse order submission for pointer rings | |
US10210095B2 (en) | Configurable hardware queue management and address translation | |
US9684613B2 (en) | Methods and systems for reducing spurious interrupts in a data storage system | |
US20230120934A1 (en) | Gpu networking using an integrated command processor | |
CN115934625B (zh) | 一种用于远程直接内存访问的敲门铃方法、设备及介质 | |
US9940128B2 (en) | Conditional access with timeout | |
CN107250995B (zh) | 存储器管理设备 | |
US10445267B2 (en) | Direct memory access (DMA) unit with address alignment | |
US10503648B2 (en) | Cache to cache data transfer acceleration techniques | |
US10540316B2 (en) | Cancel and replay protocol scheme to improve ordered bandwidth | |
CN115297169B (zh) | 数据处理方法、装置、电子设备及介质 | |
US9460013B2 (en) | Method and system for removal of a cache agent | |
JP5998998B2 (ja) | 演算処理装置、情報処理装置、及び演算処理装置の制御方法 | |
US10102094B2 (en) | Simulating legacy bus behavior for backwards compatibility | |
US8438335B2 (en) | Probe speculative address file | |
Heidelberger et al. | Concurrent array-based queue |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |