CN106572500B - 一种c-ran中硬件加速器的调度方法 - Google Patents
一种c-ran中硬件加速器的调度方法 Download PDFInfo
- Publication number
- CN106572500B CN106572500B CN201610918073.8A CN201610918073A CN106572500B CN 106572500 B CN106572500 B CN 106572500B CN 201610918073 A CN201610918073 A CN 201610918073A CN 106572500 B CN106572500 B CN 106572500B
- Authority
- CN
- China
- Prior art keywords
- queue
- task
- hardware accelerator
- tasks
- virtual machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/08—Load balancing or load distribution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/10—Flow control between communication endpoints
- H04W28/14—Flow control between communication endpoints using intermediate storage
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明涉及一种C‑RAN中硬件加速器的调度方法,包括以下步骤:1)在虚拟机控制器Dom0内建立任务队列work_queue,同时还针对每个硬件加速器建立任务队列write_queue和任务队列read_queue;2)当虚拟机控制器Dom0接收到虚拟机DomU的请求后,将请求按照先来先服务策略添加到任务队列work_queue;3)依次取出任务队列work_queue中的任务,并选择当前负载最小的硬件加速器,将取出的任务放入对应的任务队列完成多个硬件加速器的调度设计,使虚拟机共享加速器,以提高信号处理速度,均衡硬件加速器负载,且增大系统吞吐量。
Description
技术领域
本发明涉及虚拟化与网络通信技术领域,尤其是涉及一种C-RAN中硬件加速器的调度方法。
背景技术
C-RAN是基于集中化处理(Centralized Processing),协作式无线电(Collaborative Radio)和实时云计算构架(Real-time Cloud Infrastructure)的绿色无线接入网构架(Clean system)。其本质是通过实现减少基站机房数量,减少能耗,采用协作化、虚拟化技术,实现资源共享和动态调度,提高频谱效率,以达到低成本,高带宽和灵活度的运营。
C-RAN中计算密集型模块占用CPU处理资源,消耗大部分信号处理时间,它们是提高信号处理速度的关键所在。为了提高C-RAN系统吞吐率,减少这部分运算带来的时间损耗,满足C-RAN对无线信号实时处理的要求,我们使用FPGA(Field-Programmable GateArray)作为硬件加速器实现这些计算复杂度高的模块。为了充分利用系统资源,降低系统成本,我们设计一台物理主机中的多台虚拟机使用多个硬件加速器的调度算法。
XEN是一个基于X86架构、发展最快、性能最稳定、占用资源最少的开源虚拟化技术。
本发明采用Xen半虚拟化技术,对硬件加速器进行虚拟化,实现了多台虚拟机共用多个硬件加速器的调度系统。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种C-RAN中硬件加速器的调度方法,主要将LTE(Long Term Evolution)基站物理层多用户数据组包方法与硬件加速技术、I/O设备虚拟化技术相结合,完成多个硬件加速器的调度设计,使虚拟机共享加速器,以提高信号处理速度,均衡硬件加速器负载,且增大系统吞吐量。
本发明的目的可以通过以下技术方案来实现:
一种C-RAN中硬件加速器的调度方法,应用于服务器上,该服务器连接多个硬件加速器,采用Xen分离设备驱动模型将硬件加速器虚拟化,服务器创建多个虚拟机DomU和一个虚拟机控制器Dom0,该调度方法包括以下步骤:
1)在虚拟机控制器Dom0内建立存放所有请求任务的任务队列work_queue并有一个相应的线程维护,同时还针对每个硬件加速器建立存放需写入请求任务的任务队列write_queue和存放需读取处理后任务结果的任务队列read_queue,任务队列write_queue和任务队列read_queue均有相应的线程维护;
2)当虚拟机控制器Dom0接收到虚拟机DomU的请求后,将请求按照先来先服务策略添加到任务队列work_queue;
3)依次取出任务队列work_queue中的任务,并选择当前负载最小的硬件加速器,将取出的任务放入对应的任务队列write_queue;
4)硬件加速器对数据的操作分为三部分:写入数据,计算,读出数据;为了使硬件加速器工作在流水状态,即第一个任务数据在被读出时,第二个任务正处于计算状态,同是第三个任务的数据正在写入硬件加速器;为了使硬件加速器工作在流水模式下,调度过程具体如下:
41)任务队列write_queue不为空,则依次取出任务队列write_queue中任务,放入任务队列read_queue且将任务的数据写入到硬件加速器;
42)同时,任务队列read_queue不为空,则依次取出任务队列read_queue中任务,读取硬件加速器中的任务结果,并将任务结果返回给对应虚拟机DomU。
所述硬件加速器的任务处理时间大于服务器读取硬件加速器的时间。
所述步骤2)中按照先来先服务策略将多个请求组包成一个设定范围大小的任务,若在设定时间内没有足够的请求,则将设定时间内的所有请求组包成一个任务。
所述步骤3)中选择当前负载最小的硬件加速器的选择公式为:
其中,wait_time是需要等待的时间,wait_time越小表示负载越小;n是任务队列write_queue中任务的个数,task_timei是第i个任务对应的解码时间;虚拟机控制器Dom0生成一张处理时间与任务数据大小对应的哈希表,可以根据任务数据长度查哈希表得到解码时间。
C-RAN中的基站物理层程序运行在虚拟机DomU中,所述硬件加速器采用FPGA硬件,实现LTE中计算密集型的模块(比如Turbo译码、FFT、MIMO均衡器等),提高运算速度,实现加速功能,具体步骤如下:
(1)用Xilinx软件调用IPcore实现Turbo译码、FFT等复杂度高的算法,且加速器支持多个任务并行计算和流水工作模式;
(2)将综合好多bit文件下载到FPGA设备,实现加速功能。
所述采用Xen的半虚拟化分离设备驱动模型是指,虚拟机DomU创建前端驱动,拦截转发虚拟机的请求;虚拟机控制器Dom0创建后端驱动,处理多个虚拟机的请求并调用硬件加速器完成计算任务。通过内存映射、事件通道机制、共享环等技术,虚拟机DomU和虚拟机控制器Dom0建立连接和共享内存,以进行请求的传递和数据的传输。在虚拟机DomU创建与硬件加速器同名的设备文件,LTE基站物理层调用虚拟设备译码时,前端驱动将请求和数据发送到后端驱动,后端驱动选择加速器完成计算并返回结果,LTE基站认为其独占一个硬件加速器。
与现有技术相比,本发明具有以下优点:
1)本发明将LTE(Long Term Evolution)基站物理层多用户数据组包方法与硬件加速技术、I/O设备虚拟化技术相结合,完成多个硬件加速器的调度设计,实现多个虚拟机共享多个加速器的调度,以提高信号处理速度,均衡硬件加速器负载,且增大系统吞吐量。
2)针对现有技术缺少用户程序的管理与设计,且硬件加速器资源利用率低的缺陷,本发明充分利用应用程序LTE基站多用户的特点,LTE基站物理层程序接收处理多个用户的数据,执行到译码时,不是每个用户单独调用虚拟加速器译码,而是基站将多个用户的数据组成一个数据包,调用虚拟加速器,作为一个任务发送到Dom0连接的硬件加速器并行计算,无需每个用户的单个请求都要单独发一次任务,充分利用硬件加速器并行计算能力,加快多用户数据的处理速度。
3)本发明调度方法支持硬件加速器工作在流水模式,即第三个任务写入硬件加速器的时候,第二个任务正在计算,第一个任务正在读取数据,充分利用硬件加速器,使其得到充分利用,且加快任务响应时间,系统吞吐率更高。
4)本发明对多个硬件加速器的选择计算方法对多个硬件加速器进行选择的时候,根据每个加速器对应队列里所有任务所需的时间,选择时间最短的,即负载最小的来分配任务,均衡系统负载。时间的计算并不是根据任务个数除以处理速度得到处理时间(因为包大小并不固定),而是更精确的根据哈希表来计算精确时间,哈希表<包大小,时间>中存放包大小对应的处理时间,根据测试硬件加速器生成哈希表。
5)基于FPGA的加速器的目的是用硬件设备实现实现通信领域中运算量大、时间复杂度高的模块,提高运算速度,实现加速功能;硬件加速器可以并行处理多个任务,且可以工作在流水模式。
附图说明
图1为本发明方法应用的系统总体结构图;
图2为本发明方法应用的系统整体流程图;
图3为硬件加速器调度结构图;
图4为硬件加速器调度流程图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
一种C-RAN中硬件加速器的调度方法的系统总体结构如图1所示:
将LTE基站物理层程序(LET PHY)运行在虚拟机中;运算复杂度高的模块用硬件加速器实现,将多块硬件加速器设备通过PCIe(PCI-Express是最新的总线和接口标准)连接到服务器主机,安装设备驱动,服务器调用设备驱动与设备通信;
安装Xen,修改虚拟机内核,使虚拟机知道自己工作在半虚拟化环境中;使用半虚拟化技术的分离设备驱动模型虚拟化硬件加速器,创建多个虚拟机DomU和一个虚拟机控制器Dom0,使虚拟机认为自己独占一块硬件加速器,Dom0将虚拟机发送的请求放入work_queue队列,再选择负载小的加速器进行解码运算,且设计的调度过程使硬件加速器工作在流水模式。因此,虚拟机运行LTE基站物理层程序时,多个虚拟机通过共用多个硬件加速器完成数据加速操作。
其中,本实施例以Turbo为例,基于FPGA的硬件加速器,用Xilinx完成Turbo译码模块、FFT模块或MIMO等模块的算法实现,然后下载到FPGA,让FPGA实现Turbo加速功能等。CRAN基站程序可以是LTE、3G、4G等网络,亦不限于以上网络的其他网络。
Dom0创建多个非特权域虚拟机DomU,在Dom0和DomU分别加载编写的内核模块具体步骤如下:
11.DomU在内核态编写前端驱动,创建设备文件,向用户态提供操作设备的接口;DomU在内核态与Dom0建立连接,建立共享内存进行数据传输;
12.Dom0在内核态编写后端驱动,与多个DomU建立连接,管理多个虚拟机访问硬件加速器的请求;
121.Dom0内创建一张数据大小和计算时间对应的哈希表,通过数据大小快速检索到所需计算时间以选择负载小的硬件加速器来调度;
选择负载最小的硬件加速器的选择公式为:
其中,wait_time是需要等待的时间,wait_time越小表示负载越小;n是任务队列write_queue中任务的个数,task_timei是第i个任务对应的解码时间,是根据硬件加速器中等待任务的个数和数据大小来计算等待时间,等待时间最小的即是负载最小的加速器,对于待处理的任务,每次选择负载最小的加速器;
122.Dom0中内建立存放所有请求任务的任务队列work_queue,同时还针对每个硬件加速器建立存放需写入请求任务的任务队列write_queue和存放需读取处理后任务结果的任务队列read_queue,每个任务队列都有一个线程来维护。
系统总体流程如图2所示,DomU在用户态运行LTE基站物理层程序,将多个用户的数据打包成一个数据包的任务,通过Xen虚拟化机制将请求和数据传递到连接硬件加速器的虚拟机控制器。虚拟机控制器对一个数据包进行一次设备操作:打开设备,向设备写入数据,基于本系统完成数据处理后读取数据,最后关闭设备。FPGA硬件加速器的虚拟化对用户是透明的。
如图3和图4所示,硬件加速器调度流程为:
1、当虚拟机控制器Dom0接收到虚拟机DomU的请求后,按照先来先服务策略将多个用户的待加速数据请求组包成一个设定范围大小的数据包,作为一个任务向连接硬件加速器的特权域虚拟机DomU发送加速请求,若在设定时间内没有足够的请求,则将设定时间内的所有请求组包成一个任务,组包后的任务添加到任务队列work_queue,对应图3中①箭头。通过测试加速器性能,可以确定最佳范围的数据大小和任务个数。
2、依次取出任务队列work_queue中的任务,并选择当前负载最小的硬件加速器,将取出的任务放入对应的任务队列write_queue,对应图3中②箭头;
3、任务队列write_queue不为空,则依次取出任务队列write_queue中任务,放入任务队列read_queue且将任务的数据写入到硬件加速器,对应图3中③箭头;
4、任务队列read_queue不为空,则依次取出任务队列read_queue中任务,读取硬件加速器中的任务结果,并将任务结果返回给对应虚拟机DomU中LTE基站物理层程序,对应图3中④箭头。
两个队列:一个队列负责写入数据,一个队列负责读取数据,使任务的写入、计算、读出三部分能够流水工作。因为只有当前一个任务写入硬件加速器后,下一个任务才能继续执行写操作;负责读取数据的线程一直循环读取数据,硬件加速器中处理的复杂模块使得其计算的时间大于数据读取的时间,不会有数据被覆盖的现象,所以使得硬件加速器可以顺利地工作在流水模式。
综上,一种C-RAN中硬件加速器的调度方法用硬件加速器实现网络通信中一些计算复杂度高的模块以提高处理速度;将硬件加速器与虚拟化技术、基站多用户数据组包方法相结合,实现多个虚拟机共用多个硬件加速器的调度,提高信号处理速度,均衡硬件加速器的负载,提高系统吞吐量。
Claims (5)
1.一种C-RAN中硬件加速器的调度方法,应用于服务器上,其特征在于,该服务器连接多个硬件加速器,采用Xen分离设备驱动模型将硬件加速器虚拟化,服务器创建多个虚拟机DomU和一个虚拟机控制器Dom0,将LTE基站物理层多用户数据组包方法与硬件加速技术、I/O设备虚拟化技术相结合,其中,LTE基站物理层程序接收处理多个用户的数据,执行到译码时,基站将多个用户的数据组成一个数据包,调用虚拟加速器,作为一个任务发送到Dom0连接的硬件加速器并行计算,完成多个硬件加速器的调度设计,实现多个虚拟机共享多个加速器的调度,
该调度方法包括以下步骤:
1)在虚拟机控制器Dom0内建立存放所有请求任务的任务队列work_queue,同时还针对每个硬件加速器建立存放需写入请求任务的任务队列write_queue和存放需读取处理后任务结果的任务队列read_queue;
2)当虚拟机控制器Dom0接收到虚拟机DomU的请求后,将请求按照先来先服务策略添加到任务队列work_queue;
3)依次取出任务队列work_queue中的任务,并选择当前负载最小的硬件加速器,将取出的任务放入对应的任务队列write_queue;
4)使硬件加速器工作在流水模式下,具体为:
任务队列write_queue不为空,则依次取出任务队列write_queue中任务,放入任务队列read_queue且将任务的数据写入到硬件加速器;
同时,任务队列read_queue不为空,则依次取出任务队列read_queue中任务,读取硬件加速器中的任务结果,并将任务结果返回给对应虚拟机DomU;
所述步骤3)中选择当前负载最小的硬件加速器的选择公式为:
其中,wait_time是需要等待的时间,wait_time越小表示负载越小;n是任务队列write_queue中任务的个数,task_timei是第i个任务对应的解码时间;虚拟机控制器Dom0生成一张处理时间与任务数据大小对应的哈希表,可以根据任务数据长度查哈希表得到解码时间。
2.根据权利要求1所述的一种C-RAN中硬件加速器的调度方法,其特征在于,所述硬件加速器的任务处理时间大于服务器读取硬件加速器的时间。
3.根据权利要求1所述的一种C-RAN中硬件加速器的调度方法,其特征在于,所述步骤2)中按照先来先服务策略将多个请求组包成一个设定范围大小的任务,若在设定时间内没有足够的请求,则将设定时间内的所有请求组包成一个任务。
4.根据权利要求1所述的一种C-RAN中硬件加速器的调度方法,其特征在于,C-RAN中的基站物理层程序运行在虚拟机DomU中,所述硬件加速器实现LTE中计算密集型的模块。
5.根据权利要求1所述的一种C-RAN中硬件加速器的调度方法,其特征在于,该调度方法应用于C-RAN中的LTE、3G、4G通信网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610918073.8A CN106572500B (zh) | 2016-10-21 | 2016-10-21 | 一种c-ran中硬件加速器的调度方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610918073.8A CN106572500B (zh) | 2016-10-21 | 2016-10-21 | 一种c-ran中硬件加速器的调度方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106572500A CN106572500A (zh) | 2017-04-19 |
CN106572500B true CN106572500B (zh) | 2020-07-28 |
Family
ID=58533876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610918073.8A Active CN106572500B (zh) | 2016-10-21 | 2016-10-21 | 一种c-ran中硬件加速器的调度方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106572500B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108958923B (zh) * | 2017-05-25 | 2022-04-22 | 上海华为技术有限公司 | 一种调度硬件加速器的方法以及调度设备 |
CN107423135B (zh) * | 2017-08-07 | 2020-05-12 | 上海兆芯集成电路有限公司 | 均衡装置以及均衡方法 |
WO2019095154A1 (zh) * | 2017-11-15 | 2019-05-23 | 华为技术有限公司 | 一种调度加速资源的方法、装置及加速系统 |
CN110838990A (zh) * | 2018-08-17 | 2020-02-25 | 上海诺基亚贝尔股份有限公司 | 一种在c-ran中对层1进行加速的方法和装置 |
CN113076198A (zh) * | 2021-04-27 | 2021-07-06 | 上海商汤临港智能科技有限公司 | 数据处理方法及装置 |
US20220374262A1 (en) * | 2021-05-18 | 2022-11-24 | Microsoft Technology Licensing, Llc | Methods for Offloading A Task From A Processor to Heterogeneous Accelerators |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101499021A (zh) * | 2008-01-31 | 2009-08-05 | 国际商业机器公司 | 在多个虚拟机上动态分配资源的方法和装置 |
CN105335211A (zh) * | 2015-10-21 | 2016-02-17 | 同济大学 | 一种基于Xen虚拟化集群的FPGA加速器调度系统及方法 |
CN105579959A (zh) * | 2013-09-24 | 2016-05-11 | 渥太华大学 | 硬件加速器虚拟化 |
WO2016096033A1 (en) * | 2014-12-19 | 2016-06-23 | Nec Europe Ltd. | Method for operating a centralized radio access network |
-
2016
- 2016-10-21 CN CN201610918073.8A patent/CN106572500B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101499021A (zh) * | 2008-01-31 | 2009-08-05 | 国际商业机器公司 | 在多个虚拟机上动态分配资源的方法和装置 |
CN105579959A (zh) * | 2013-09-24 | 2016-05-11 | 渥太华大学 | 硬件加速器虚拟化 |
WO2016096033A1 (en) * | 2014-12-19 | 2016-06-23 | Nec Europe Ltd. | Method for operating a centralized radio access network |
CN105335211A (zh) * | 2015-10-21 | 2016-02-17 | 同济大学 | 一种基于Xen虚拟化集群的FPGA加速器调度系统及方法 |
Non-Patent Citations (1)
Title |
---|
Scheduling Algorithm Design for Virtualized Hardware Accelerator in C-RAN;Zhu Hui;《International Conference on Cloud Computing Research and Innovations (ICCCRI)》;20160505;第1-5节,图1-8 * |
Also Published As
Publication number | Publication date |
---|---|
CN106572500A (zh) | 2017-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106572500B (zh) | 一种c-ran中硬件加速器的调度方法 | |
US20240264871A1 (en) | Storage transactions with predictable latency | |
US11669372B2 (en) | Flexible allocation of compute resources | |
CN102567080B (zh) | 一种云计算环境中的面向负载均衡的虚拟机择位系统 | |
US20200358710A1 (en) | Container-based mobile code offloading support system in cloud environment and offloading method thereof | |
EP3593253B1 (en) | Communication method and device for virtual base stations | |
WO2017034731A1 (en) | Technologies for offloading network packet processing to a gpu | |
CA2875807A1 (en) | Offloading virtual machine flows to physical queues | |
CN105389199B (zh) | 一种基于Xen的FPGA加速器虚拟化平台及应用 | |
EP2353083A1 (en) | Multi-core system with central transaction control | |
CN104615480A (zh) | 基于numa高性能网络处理器负载的虚拟处理器调度方法 | |
KR101578177B1 (ko) | 클라우드 컴퓨팅 환경에서의 자원 이용률에 기초한 마이그레이션 방법 및 시스템 | |
CN103678203A (zh) | 一种实现网卡零拷贝方法及装置 | |
CN103034526B (zh) | 一种虚拟化服务的实现方法和装置 | |
CN110990154A (zh) | 一种大数据应用优化方法、装置及存储介质 | |
CN110427270B (zh) | 一种面向rdma网络下分布式连接算子的动态负载均衡方法 | |
EP4214603A1 (en) | Mechanism to automatically prioritize i/o for nfv workloads at platform overload | |
US10904167B2 (en) | Incoming packet processing for a computer system | |
US9417924B2 (en) | Scheduling in job execution | |
US20140237017A1 (en) | Extending distributed computing systems to legacy programs | |
Cha et al. | Boosting edge computing performance through heterogeneous manycore systems | |
US20230315652A1 (en) | Efficient queue access for user-space packet processing | |
Yang et al. | uNVMe-TCP: a user space approach to optimizing NVMe over fabrics TCP transport | |
Liu et al. | Improving resource utilization of a cloud-based testing platform for android applications | |
Qi et al. | LIFL: A Lightweight, Event-driven Serverless Platform for Federated Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |