CN113923061B - 基于智能网卡的gpu网络通信方法、智能网卡、介质、设备 - Google Patents
基于智能网卡的gpu网络通信方法、智能网卡、介质、设备 Download PDFInfo
- Publication number
- CN113923061B CN113923061B CN202111247747.3A CN202111247747A CN113923061B CN 113923061 B CN113923061 B CN 113923061B CN 202111247747 A CN202111247747 A CN 202111247747A CN 113923061 B CN113923061 B CN 113923061B
- Authority
- CN
- China
- Prior art keywords
- gpu
- network card
- intelligent network
- register
- packet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0806—Multiuser, multiprocessor or multiprocessing cache systems
- G06F12/0815—Cache consistency protocols
- G06F12/0831—Cache consistency protocols using a bus scheme, e.g. with bus monitoring or watching means
- G06F12/0835—Cache consistency protocols using a bus scheme, e.g. with bus monitoring or watching means for main memory peripheral accesses (e.g. I/O or DMA)
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/10—Address translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
- G06F15/163—Interprocessor communication
- G06F15/17—Interprocessor communication using an input/output type connection, e.g. channel, I/O port
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
- G06F15/163—Interprocessor communication
- G06F15/173—Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种GPU直接使用可编程智能网卡进行网络通信的方法,属于涉及计算机网络技术领域。本发明通过初始化将GPU内存进行存储区划分,预先在智能网卡中建立GPU内存中不同存储区的虚拟地址和物理地址的查找表,由此在实际应用中,初始化只会在系统开始运行时进行,系统实际运行过程中发生的大量收发包操作无需CPU接入。因此CPU参与的流程仅仅只有占比极小的初始化流程,占比极大的收发包流程可由GPU直接访问网卡并进行控制,完全不需要CPU参与。因此本发明大大节省了大量的CPU和GPU程序上下文切换的开销,有效降低了GPU通过智能网卡进行网络传输过程中的数据传输延时。
Description
技术领域
本发明涉及计算机网络技术和GPU分布式计算领域,特别是一种GPU直接使用智能网卡(Smart NIC)进行网络通信的技术。
背景技术
当前GPU在分布式计算场景下例如分布式数据库、机器学习等领域有着广泛的应用,分布式场景下系统的计算能力很大程度取决于不同节点间的网络延时,如何降低网络延时成为当今的热点问题。传统收发数据包涉及多次内存交换,人们开始使用直接内存访问技术来消除数据在GPU内存和CPU内存之间的交换带来的影响,然而此种方法的控制端依旧位于CPU,即需要CPU来进行收发包的控制,增加了系统通信的延时。从图1中可以看出,现有技术中GPU和智能网卡进行网络传输的模式中,当GPU在需要收发网络数据时,需要先由CPU通知网卡,再由网卡进行数据传输,GPU到CPU的上下文切换增加了很多数据传输延时。
因此,如何降低GPU通过智能网卡进行网络传输过程中的数据传输延时,是目前亟待解决的技术问题。
发明内容
本发明的目的在于解决GPU通过智能网卡进行网络传输过程中的数据传输延时过高的技术问题,并提出一种给GPU使用的智能网卡,使得GPU能够直接访问网卡并进行控制,整个收发包过程不需要CPU的参与。
为实现上述目的,本发明采取如下技术方案:
第一方面,本发明提供了一种基于智能网卡的GPU网络通信方法,其包括:
GPU进行发包时,将待发送数据块所在存储区的虚拟地址、待发送数据块的长度和数据传输所需的网络参数写入智能网卡的寄存器中,由智能网卡根据预先存储的查找表查找得到寄存器中的虚拟地址对应的物理地址,然后利用智能网卡内的DMA控制器根据查找得到的物理地址以及寄存器中的长度从GPU内存中读取对应的待发送数据,再按照寄存器中的网络参数将读取得到的待发送数据以网络包形式发送至目的地址;
GPU进行收包时,将用于存储待接收网络包的存储区的虚拟地址和待接收网络包的长度写入智能网卡的寄存器中;再由智能网卡根据预先存储的查找表查找得到寄存器中的虚拟地址对应的物理地址,在智能网卡实际接收到网络包后,利用智能网卡内的DMA控制器根据查找得到的物理地址将网络包写入GPU内存中的对应位置;
所述查找表内包含GPU内存中不同存储区的虚拟地址和物理地址的映射关系,预先由CPU对GPU内存进行存储区分配后建立并存储于智能网卡中。
作为上述第一方面的优选,GPU进行收包时,在将接收到的网络包写入GPU内存的过程中,需通过寄存器记录本次写入数据的总长度,并根据GPU的轮询请求向其反馈寄存器中记录的长度数值,用于供GPU结合所述待接收网络包的长度判断是否完成全部接收数据的写入。
作为上述第一方面的优选,所述GPU通过Memory Mapped IO的方式将数据写入智能网卡的寄存器。
作为上述第一方面的优选,所述智能网卡中的寄存器预先经过注册,使其能被GPU直接读写。
作为上述第一方面的优选,所述存储模块中的查找表中还存储有各存储区的长度。
作为上述第一方面的优选,所述数据传输所需的网络参数包括目的地址的IP和Port;
第二方面,本发明提供了一种用于GPU网络通信的智能网卡,其特征在于,智能网卡内部包括:
存储模块,用于存储有GPU内存中不同存储区的虚拟地址和物理地址的查找表,所述查找表预先由CPU对GPU内存进行存储区分配后建立;
发包模块,用于在寄存器中被GPU写入待发送数据块所在存储区的虚拟地址、待发送数据块的长度和数据传输所需的网络参数后,根据所述查找表查找得到寄存器中的虚拟地址对应的物理地址,然后利用智能网卡内的DMA控制器根据查找得到的物理地址以及寄存器中的长度从GPU内存中读取对应的待发送数据,再按照寄存器中的网络参数将读取得到的待发送数据以网络包形式发送至目的地址;
收包模块,用于在寄存器中被GPU写入用于存储待接收网络包的存储区的虚拟地址和待接收网络包的长度后,根据所述查找表查找得到寄存器中的虚拟地址对应的物理地址,在智能网卡实际接收到网络包后,利用智能网卡内的DMA控制器根据查找得到的物理地址将网络包写入GPU内存中的对应位置。
作为上述第二方面的优选,所述收包模块将接收到的网络包写入GPU内存的过程中,通过寄存器记录本次写入数据的总长度,并根据GPU的轮询请求向其反馈寄存器中记录的长度数值,用于供GPU结合所述待接收网络包的长度判断是否完成全部接收数据的写入。
作为上述第二方面的优选,所述GPU通过Memory Mapped IO的方式将数据写入智能网卡的寄存器。
作为上述第二方面的优选,所述智能网卡中的寄存器预先经过注册,使其能被GPU直接读写。
作为上述第二方面的优选,所述存储模块中的查找表中还存储有各存储区的长度。
作为上述第二方面的优选,所述数据传输所需的网络参数包括目的地址的IP和Port;
第三方面,本发明提供了一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,能实现如上述第一方面任一方案所述的基于智能网卡的GPU网络通信方法。
第四方面,本发明提供了一种计算机设备,其特征在于,计算机设备中安插有GPU、CPU和上述第二方面所述的智能网卡,GPU、CPU和智能网卡相互之间通过通信总线构成通信连接,GPU进行收发包时不经过CPU而是直接通过所述智能网卡进行网络通信。
本发明相对于现有技术而言,具有以下有益效果:
本发明通过初始化将GPU内存进行存储区划分,预先在智能网卡中建立GPU内存中不同存储区的虚拟地址和物理地址的查找表,由此在实际应用中,初始化只会在系统开始运行时进行,系统实际运行过程中发生的大量收发包操作无需CPU接入。因此CPU参与的流程仅仅只有占比极小的初始化流程,占比极大的收发包流程可由GPU直接访问网卡并进行控制,完全不需要CPU参与。因此本发明大大节省了大量的CPU和GPU程序上下文切换的开销,有效降低了GPU通过智能网卡进行网络传输过程中的数据传输延时。
附图说明
图1是现有技术中GPU和NIC进行网络传输的示意图;
图2是本发明提出的GPU和NIC进行网络传输的示意图;
图3是本发明提出的GPU和NIC网络传输的流程图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步阐述和说明。本发明中各个实施方式的技术特征在没有相互冲突的前提下,均可进行相应组合。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施例的限制。本发明各个实施例中的技术特征在没有相互冲突的前提下,均可进行相应组合。
在现有方法中,在初始化完成后,GPU会频繁地进行网络收发数据,而现有方法中每次收发数据都需要CPU来进行控制,导致运行中GPU和CPU会一直发生上下文的切换。因此在初始化完成后GPU进行具体的收发网络包时尽量减少CPU的参与,以减少GPU和CPU程序上下文切换的开销。
下面首先对本发明的一个较佳实施例所提供的一种基于智能网卡的GPU网络通信方法进行介绍。
需说明的是,本发明所述的智能网卡(Smart Network Interface Card,SmartNIC,本发明中亦简称为NIC),一般用于服务器与交换机等网络设备之间的连接。智能网卡(Smart NIC)和普通网卡(NIC)的根本区别在于,SmartNIC可以为主机(例如服务器主机)CPU减轻数据处理量。智能网卡可以有自己独立的CPU、内存操作系统和硬件加速单元等资源。智能网卡可以是任意可编程的智能网卡,其具体型号和参数不限,可根据具体的应用场景进行配置。
在一实施例中,基于智能网卡的GPU网络通信方法需要借助智能网卡来实现GPU对外的网络包收发功能,其主要目的是希望在网络包的收发过程中无需通过CPU,进而减少传统的网络包收发过程中GPU和CPU程序上下文切换的开销。该目的具体是通过如下方式实现的:
预先在智能网卡中存储一张查找表,查找表内包含GPU内存中不同存储区的虚拟地址和物理地址的映射关系。该查找表可以在进行收发包系统初始化的过程中由CPU对GPU内存进行存储区分配后建立并存储于智能网卡中,后续在进行收发包的过程中直接查找该表格即可,无需再依赖CPU。
另外,在一种实施方式中,上述存储模块中的查找表中还可以存储有各存储区的长度大小,以便于后续数据收发过程中确定网络包数据存储所需的存储区。
如图2所示,GPU不经过CPU直接进行发包和收包的过程如下:
一方面,GPU进行发包时,将待发送数据块所在存储区的虚拟地址、待发送数据块的长度和数据传输所需的网络参数写入智能网卡的寄存器中,由智能网卡根据预先存储的查找表查找得到寄存器中存储的待发送数据块所在存储区的虚拟地址对应的物理地址,然后利用智能网卡内的DMA控制器根据查找得到的物理地址以及寄存器中的长度从GPU内存中读取对应的待发送数据,再从寄存器中读取存储的数据传输所需的网络参数,并根据该网络参数将读取得到的待发送数据以网络包形式发送至目的地址。
其中数据传输所需的网络参数应当根据数据传输的通信协议进行确定。在一种实施方式中,数据传输所需的网络参数可选择为发包的目的地址对应的IP和Port。由此,在该GPU的发包过程中,仅需调用预先存储的查找表,不再需要先由CPU通知网卡,再由网卡进行数据传输,因此数据延时大大降低。
另一方面,GPU进行收包时,将用于存储待接收网络包的存储区的虚拟地址和待接收网络包的长度写入智能网卡的寄存器中;再由智能网卡根据预先存储的查找表查找得到寄存器中待接收网络包的存储区的虚拟地址对应的物理地址,在智能网卡实际接收到网络包后,利用智能网卡内的DMA控制器根据查找得到的物理地址将网络包写入GPU内存中的对应位置。
由此,在该GPU的收包过程中,也仅需调用预先存储的查找表,不再需要先由CPU通知网卡,再由网卡进行数据传输,因此数据延时大大降低。
进一步的,为了使GPU能够知道智能网卡是否已经完成了网络包数据的收取,在GPU进行收包时还可以进一步利用一个寄存器来记录本次将接收到的网络包写入GPU内存的过程中已写入数据的总长度,该总长度可以与前述寄存器中存储的待接收网络包的长度进行对比,当两者长度一致时即表明已完成网络包的收取和全部写入,GPU即可开始按照下一步动作指令进行相应的下游计算。在一种实施方式中,该功能可由GPU不断轮询记录已写入数据总长度的寄存器来实现,智能网卡根据GPU的轮询请求向其反馈寄存器中记录的长度数值,用于供GPU判断是否完成全部接收数据的写入。
另外,应当说明的是,上述CPU、GPU、智能网卡之间的数据查询、写入可以通过任意可行方式来实现。在一实施例中,GPU可通过Memory Mapped IO的方式将数据写入智能网卡的寄存器,同样的,CPU也可通过Memory Mapped IO的方式将查找表数据写入智能网卡的寄存器。
但需要注意的是,由于GPU将直接向智能网卡中的寄存器写入数据,因此智能网卡中的寄存器需要预先经过注册,使其能被GPU直接读写。
为了进一步便于理解,下面将给出上述基于智能网卡的GPU网络通信方法在一个实施例中的具体实现方式,如图3所示其具体实现过程如下:
1)首先由CPU的应用程序对GPU的内存进行分配形成多块存储区,将每块存储区的虚拟地址、物理地址、长度大小存在结构体中,结构体标记为GPUMemStruct(V1,P1,L1;…;Vn,Pn,Ln),其中Vj是存储区j的虚拟地址,Pj是存储区j的物理地址,Lj是存储区j的长度,j=1,2,…,n,n为GPU内存中总的存储区个数。结构体GPUMemStruct本质上构成了一张查找表,可以根据任一存储区的虚拟地址来查找其在GPU内存中的实际物理地址以及存储区的长度大小。后续,CPU应用程序再通过Linux的Memory Mapped IO将这个结构体传给智能网卡。
另外,在进行实际的收发包之前,还需要使用GPU内存注册函数cudaMemRegister将智能网卡上的多个寄存器注册,使得GPU可以直接读写这些位于智能网卡上的寄存器。
2)发送数据包时,GPU和智能网卡的通信流程如下:
步骤1,GPU将需要发送的数据块的虚拟地址和长度分别写入智能网卡上的两个寄存器并标记为RegSendVaddr和RegSendLen。同时GPU将目的IP和Port分别写入智能网卡上的两个寄存器并标记为RegIP和RegPort。
步骤2,智能网卡使用RegSendVaddr存储的数值查找GPUMemStruct来得到数据块的实际物理地址并标记为SendPaddr,智能网卡使用SendPaddr和RegSendLen中的数值调用位于智能网卡上的DMA控制器,直接读取GPU内存对应的数据。
步骤3,智能网卡读取到GPU需要发送的数据后,根据RegIP和RegPort的数值将数据通过网络模块发送到目的机器。
3)接收数据包时,GPU和智能网卡的通信流程如下:
步骤1,GPU将数据将要被存放区域的虚拟地址和长度分别写入智能网卡上的两个寄存器并标记为RegRecvVaddr和RegRecvLen。同时GPU开始轮询智能网卡上用于记录智能网卡写入GPU内存数据长度的寄存器并标记为RegTotalLen。
步骤2.,智能网卡使用RegRecvVaddr存储的数值查找GPUMemStruct来得到物理地址并标记为RecvPaddr。
步骤3,智能网卡收到网络数据包后,使用RecvPaddr和RegRecvLen的数值调用位于智能网卡上的DMA控制器,将数据写入GPU内存对应的地址。
步骤4,智能网卡将已写入的数据长度加在RegTotalLen寄存器上,GPU轮询发现此寄存器发生了变化且增加的数值等于需要收到包的长度,GPU完成此次收包。
由此可见,本发明实现了一种在GPU和智能网卡间直接进行网络通信的技术,除了初始化以外完全不需要CPU的参与,消除了传统方法GPU和CPU程序上下文的切换开销,从而提升了系统的网络性能。本发明适用于高吞吐量的分布式数据库和分布式机器学习等领域。
在本发明的另一实施例中,还提供了一种用于实现上述GPU网络通信方法的智能网卡,该智能网卡可用于GPU直接实现网络通信而无需借助CPU。该智能网卡内部包括:
存储模块,用于存储有GPU内存中不同存储区的虚拟地址和物理地址的查找表,其中该查找表预先由CPU对GPU内存进行存储区分配后建立。
在一种实施方式中,存储模块中的查找表中也可以进一步存储有各存储区的长度,以便于确定数据收发所需的存储区。
发包模块,用于在寄存器中被GPU写入待发送数据块所在存储区的虚拟地址、待发送数据块的长度和数据传输所需的网络参数后,根据前述的查找表查找得到寄存器中的虚拟地址对应的物理地址,然后利用智能网卡内的DMA控制器根据查找得到的物理地址以及寄存器中的长度从GPU内存中读取对应的待发送数据,再按照寄存器中的网络参数将读取得到的待发送数据以网络包形式发送至目的地址。
收包模块,用于在寄存器中被GPU写入用于存储待接收网络包的存储区的虚拟地址和待接收网络包的长度后,根据前述的查找表查找得到寄存器中的虚拟地址对应的物理地址,在智能网卡实际接收到网络包后,利用智能网卡内的DMA控制器根据查找得到的物理地址将网络包写入GPU内存中的对应位置。
同样的,作为一种实施方式,为了使GPU能够知道智能网卡是否已经完成了网络包数据的收取,在收包模块,还可以进一步利用一个寄存器来记录本次将接收到的网络包写入GPU内存的过程中已写入数据的总长度,并根据GPU的轮询请求向其反馈寄存器中记录的长度数值,用于供GPU结合前述寄存器中存储的待接收网络包的长度来判断是否完成全部接收数据的写入,进而触发后续的数据计算流程。
在一种实施方式中,GPU通过Memory Mapped IO的方式将数据写入智能网卡的寄存器。在一种实施方式中,所述智能网卡中的寄存器预先经过注册,使其能被GPU直接读写。在一种实施方式中,所述存储模块中的查找表中还存储有各存储区的长度。在一种实施方式中,所述数据传输所需的网络参数包括目的地址的IP和Port。
上述智能网卡中除了存储模块、发包模块、收包模块之外,还应当有其他能够实现智能网卡自身所起功能的必要设备,例如通信接口、通信总线等等,具体可根据智能网卡自身所需的必要器件进行确定,此处不再赘述。
需要说明的是,根据本发明公开的实施例,上述智能网卡中的存储模块、发包模块、收包模块的具体实现功能可以通过编写的计算机软件程序来实现,计算机程序中包含用于执行相应方法的程序代码。
因此,在本发明的另一实施例中,还提供了一种计算机可读存储介质,该计算机可读介质可以是智能网卡自身所包含的,也可以是单独存在,可以是单一的存储介质也可以多个存储介质的组合。该存储介质上存储有一个或者多个计算机程序,当一个或者多个计算机程序被处理器执行时,能实现上述实施例所述的基于智能网卡的GPU网络通信方法。
可以理解的是,上述存储介质可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(DigitalSignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明的另一实施例中,还提供了一种基于GPU和智能网卡的收发包系统,包括相互通信连接的GPU、CPU和上述实施例所描述的智能网卡,另外还包括:
GPU存储区分配模块,用于供CPU应用程序对GPU内存执行存储区分配,并将每个存储区物理地址和长度大小用内存块参数标记后映射到一个虚拟地址以建立映射关系,并各存储区的映射关系传递并存储至智能网卡中。
信息传递模块,用于供GPU将智能网卡控制收包或发包所需的参数传递给智能网卡,同时用于智能网卡向GPU反馈GPU发出的轮询请求。
数据直接传输模块,在发包时用于供GPU直接将数据传输给智能网卡,而收包时用于供所述智能网卡将收到的网络包数据直接传输到GPU内存中。
另外,需要说明的是,描述于本发明前述实施例中所涉及到的部分计算机程序模块除了通过软件的方式实现之外,也可以通过硬件的方式来实现,例如通过电路实现类似的数据处理功能,对此不做限定。
在本发明的另一实施例中,还提供了一种计算机设备,该计算机设备中安插有GPU、CPU和前述实施例中所描述的智能网卡,GPU、CPU和智能网卡相互之间通过通信总线构成通信连接,GPU进行收发包时不经过CPU而是直接通过智能网卡进行网络通信。
需要说明的是,计算机设备可以是任意具有GPU、CPU、智能网卡插槽的物理机,个人电脑(PC机)、服务器均包含在内。举例而言,计算机设备可以采用高性能的服务器,智能网卡和GPU均应通过PCIe接口连接在服务器的PCIe插槽,使得该服务器能够借助低时延的GPU实现高性能计算,可应用于分布式数据库和分布式机器学习等领域。
以上所述的实施例只是本发明的一种较佳的方案,然其并非用以限制本发明。有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型。因此凡采取等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。
Claims (14)
1.一种基于智能网卡的GPU网络通信方法,其特征在于,包括:
GPU进行发包时,将待发送数据块所在存储区的虚拟地址、待发送数据块的长度和数据传输所需的网络参数写入智能网卡的寄存器中,由智能网卡根据预先存储的查找表查找得到寄存器中的虚拟地址对应的物理地址,然后利用智能网卡内的DMA控制器根据查找得到的物理地址以及寄存器中的长度从GPU内存中读取对应的待发送数据,再按照寄存器中的网络参数将读取得到的待发送数据以网络包形式发送至目的地址;
GPU进行收包时,将用于存储待接收网络包的存储区的虚拟地址和待接收网络包的长度写入智能网卡的寄存器中;再由智能网卡根据预先存储的查找表查找得到寄存器中的虚拟地址对应的物理地址,在智能网卡实际接收到网络包后,利用智能网卡内的DMA控制器根据查找得到的物理地址将网络包写入GPU内存中的对应位置;
所述查找表内包含GPU内存中不同存储区的虚拟地址和物理地址的映射关系,预先由CPU对GPU内存进行存储区分配后建立并存储于智能网卡中。
2.如权利要求1所述的基于智能网卡的GPU网络通信方法,其特征在于,GPU进行收包时,在将接收到的网络包写入GPU内存的过程中,需通过寄存器记录本次写入数据的总长度,并根据GPU的轮询请求向其反馈寄存器中记录的长度数值,用于供GPU结合所述待接收网络包的长度判断是否完成全部接收数据的写入。
3. 如权利要求1所述的基于智能网卡的GPU网络通信方法,其特征在于,所述GPU通过Memory Mapped IO的方式将数据写入智能网卡的寄存器。
4.如权利要求1所述的基于智能网卡的GPU网络通信方法,其特征在于,所述智能网卡中的寄存器预先经过注册,使其能被GPU直接读写。
5.如权利要求1所述的基于智能网卡的GPU网络通信方法,其特征在于,所述查找表中还存储有各存储区的长度。
6.如权利要求1所述的基于智能网卡的GPU网络通信方法,其特征在于,所述数据传输所需的网络参数包括目的地址的IP和Port。
7.一种用于GPU网络通信的智能网卡,其特征在于,智能网卡内部包括:
存储模块,用于存储有GPU内存中不同存储区的虚拟地址和物理地址的查找表,所述查找表预先由CPU对GPU内存进行存储区分配后建立;
发包模块,用于在寄存器中被GPU写入待发送数据块所在存储区的虚拟地址、待发送数据块的长度和数据传输所需的网络参数后,根据所述查找表查找得到寄存器中的虚拟地址对应的物理地址,然后利用智能网卡内的DMA控制器根据查找得到的物理地址以及寄存器中的长度从GPU内存中读取对应的待发送数据,再按照寄存器中的网络参数将读取得到的待发送数据以网络包形式发送至目的地址;
收包模块,用于在寄存器中被GPU写入用于存储待接收网络包的存储区的虚拟地址和待接收网络包的长度后,根据所述查找表查找得到寄存器中的虚拟地址对应的物理地址,在智能网卡实际接收到网络包后,利用智能网卡内的DMA控制器根据查找得到的物理地址将网络包写入GPU内存中的对应位置。
8.如权利要求7所述的一种用于GPU网络通信的智能网卡,其特征在于,所述收包模块将接收到的网络包写入GPU内存的过程中,通过寄存器记录本次写入数据的总长度,并根据GPU的轮询请求向其反馈寄存器中记录的长度数值,用于供GPU结合所述待接收网络包的长度判断是否完成全部接收数据的写入。
9. 如权利要求7所述的一种用于GPU网络通信的智能网卡,其特征在于,所述GPU通过Memory Mapped IO的方式将数据写入智能网卡的寄存器。
10.如权利要求7所述的一种用于GPU网络通信的智能网卡,其特征在于,所述智能网卡中的寄存器预先经过注册,使其能被GPU直接读写。
11.如权利要求7所述的一种用于GPU网络通信的智能网卡,其特征在于,所述存储模块中的查找表中还存储有各存储区的长度。
12.如权利要求7所述的一种用于GPU网络通信的智能网卡,其特征在于,所述数据传输所需的网络参数包括目的地址的IP和Port。
13.一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,能实现如权利要求1~6任一所述的基于智能网卡的GPU网络通信方法。
14. 一种计算机设备,其特征在于,计算机设备中安插有GPU、CPU和权利要求7~12任一所述智能网卡, GPU、CPU和智能网卡相互之间通过通信总线构成通信连接,GPU进行收发包时不经过CPU而是直接通过所述智能网卡进行网络通信。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111247747.3A CN113923061B (zh) | 2021-10-26 | 2021-10-26 | 基于智能网卡的gpu网络通信方法、智能网卡、介质、设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111247747.3A CN113923061B (zh) | 2021-10-26 | 2021-10-26 | 基于智能网卡的gpu网络通信方法、智能网卡、介质、设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113923061A CN113923061A (zh) | 2022-01-11 |
CN113923061B true CN113923061B (zh) | 2023-03-24 |
Family
ID=79242762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111247747.3A Active CN113923061B (zh) | 2021-10-26 | 2021-10-26 | 基于智能网卡的gpu网络通信方法、智能网卡、介质、设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113923061B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114745325B (zh) * | 2022-03-28 | 2024-07-23 | 合肥边缘智芯科技有限公司 | 一种基于PCIe总线的MAC层数据交换方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109828940A (zh) * | 2019-01-31 | 2019-05-31 | 郑州云海信息技术有限公司 | 一种智能网卡及数据处理系统和方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITRM20120094A1 (it) * | 2012-03-14 | 2013-09-14 | Istituto Naz Di Fisica Nuclea Re | Scheda di interfaccia di rete per nodo di rete di calcolo parallelo su gpu, e relativo metodo di comunicazione internodale |
CN113190476A (zh) * | 2021-04-14 | 2021-07-30 | 摩尔线程智能科技(北京)有限责任公司 | 数据传输方法和装置 |
-
2021
- 2021-10-26 CN CN202111247747.3A patent/CN113923061B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109828940A (zh) * | 2019-01-31 | 2019-05-31 | 郑州云海信息技术有限公司 | 一种智能网卡及数据处理系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113923061A (zh) | 2022-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8732360B2 (en) | System and method for accessing memory | |
US9996498B2 (en) | Network memory | |
CN107832343B (zh) | 一种基于位图的mbf数据索引结构对数据快速检索的方法 | |
CN107908357B (zh) | 命名数据网转发平面pit存储结构及其数据检索方法 | |
US20220222016A1 (en) | Method for accessing solid state disk and storage device | |
WO2018041074A1 (zh) | 一种内存设备的访问方法、装置和系统 | |
CN109564502B (zh) | 应用于存储设备中的访问请求的处理方法和装置 | |
WO2022017475A1 (zh) | 一种数据访问方法及相关设备 | |
CN115374046B (zh) | 一种多处理器数据交互方法、装置、设备及存储介质 | |
CN113923061B (zh) | 基于智能网卡的gpu网络通信方法、智能网卡、介质、设备 | |
CN116483738A (zh) | 数据访问方法及装置、存储介质及电子装置 | |
CN114285676B (zh) | 智能网卡、智能网卡的网络存储方法和介质 | |
CN117076140B (zh) | 一种分布式计算方法、装置、设备、系统及可读存储介质 | |
CN117648264A (zh) | 一种网卡设备及数据传输系统 | |
CN115883022B (zh) | Dma传输控制方法、装置、电子设备及可读存储介质 | |
CN116909484A (zh) | 数据处理方法、装置、设备及计算机可读存储介质 | |
KR20170117326A (ko) | 랜덤 액세스 메모리를 포함하는 하나 이상의 처리 유닛을 위한 직접 메모리 액세스 제어 장치 | |
CN110765046A (zh) | 一种动态可重构高速串行总线的dma传输装置与方法 | |
CN114253733B (zh) | 一种内存管理方法、装置、计算机设备和存储介质 | |
CN109992197B (zh) | 一种数据读写方法、装置、电子设备和存储介质 | |
KR20200143922A (ko) | 메모리 카드 및 이를 이용한 데이터 처리 방법 | |
CN111190840A (zh) | 基于现场可编程门阵列控制的多方中央处理器通信架构 | |
CN114238156A (zh) | 处理系统以及操作处理系统的方法 | |
JP6718798B2 (ja) | スイッチおよびそのデータアクセス方法 | |
US20190199544A1 (en) | NETWORK COMMUNICATION METHOD, SYSTEM AND CONTROLLER OF PCIe AND ETHERNET HYBRID NETWORKS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |