CN108540982B - 用于虚拟基站的通信方法和设备 - Google Patents

用于虚拟基站的通信方法和设备 Download PDF

Info

Publication number
CN108540982B
CN108540982B CN201710129386.XA CN201710129386A CN108540982B CN 108540982 B CN108540982 B CN 108540982B CN 201710129386 A CN201710129386 A CN 201710129386A CN 108540982 B CN108540982 B CN 108540982B
Authority
CN
China
Prior art keywords
data
buffer
buffers
virtual base
general purpose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710129386.XA
Other languages
English (en)
Other versions
CN108540982A (zh
Inventor
王澄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Shanghai Bell Co Ltd
Original Assignee
Nokia Shanghai Bell Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Shanghai Bell Co Ltd filed Critical Nokia Shanghai Bell Co Ltd
Priority to CN201710129386.XA priority Critical patent/CN108540982B/zh
Priority to PCT/IB2018/000480 priority patent/WO2018162991A2/en
Priority to US16/490,361 priority patent/US10922153B2/en
Priority to EP18726852.9A priority patent/EP3593253B1/en
Publication of CN108540982A publication Critical patent/CN108540982A/zh
Application granted granted Critical
Publication of CN108540982B publication Critical patent/CN108540982B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/02Resource partitioning among network components, e.g. reuse partitioning
    • H04W16/10Dynamic resource partitioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/544Buffers; Shared memory; Pipes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/17Interprocessor communication using an input/output type connection, e.g. channel, I/O port
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • G06F15/78Architectures of general purpose stored program computers comprising a single central processing unit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/13Flow control; Congestion control in a LAN segment, e.g. ring or bus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/90Buffering arrangements
    • H04L49/901Buffering arrangements using storage descriptor, e.g. read or write pointers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/18Network planning tools
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/10Flow control between communication endpoints
    • H04W28/14Flow control between communication endpoints using intermediate storage
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/02Processing of mobility data, e.g. registration information at HLR [Home Location Register] or VLR [Visitor Location Register]; Transfer of mobility data, e.g. between HLR, VLR or external networks
    • H04W8/04Registration at HLR or HSS [Home Subscriber Server]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本公开的实施例涉及用于虚拟基站的通信方法和设备。例如,在被布置有多个虚拟基站的基带处理单元处,有序地在基带处理单元的硬件加速器和通用处理器之间读取和写入数据,实现了传统的硬件加速器在多个虚拟基站之间的共享,而不需要引入虚拟层或增加硬件复杂性。

Description

用于虚拟基站的通信方法和设备
技术领域
本公开的实施例总体上涉及通信技术,更具体地,涉及用于虚拟基站的通信方法以及相应的设备。
背景技术
近年来,移动通信行业朝向IT化和云化发展。云无线接入网络(C-RAN)和网络功能的虚拟化(NFV)的基本思想是使用通用处理器(GPP)进行尽可能多的RAN和CN处理。这可以借助IT行业的规模经济,并利用标准的IT虚拟化技术和业界采用的大容量服务器(例如x86架构),交换机和存储来实现电信网络功能,这些设备可以位于数据中心。
以RAN为例如,如果更大数目的基站无线协议栈在资源池(数据中心)中运行,这是很容易实现位于资源池的多个eNB之间的数据交换,以便基站间协作来消除干扰,并实现性能增益。
在云中的RAN处理也可以带来池化增益。在云计算基础设施中,所有的eNB都位于同一基带(BBU)池便于eNB的之间的处理能力共享,从而允许运营商通过供应较少计算资源降低成本或通过关闭闲置的处理器来降低功耗。在空闲时间,在多台机器/板上的eNB可整合到少数机器/板,并且闲置的机器可以被关闭以节省功耗。在繁忙时间,这些eNB可迁移回到新启动的机器,以保证整个系统的性能。
发明内容
总体上,本公开的实施例提出用于虚拟基站的通信方法以及相应的设备。
在第一方面,本公开的实施例提供了一种在基带处理单元处实现的方法,该基带处理单元上布置有多个虚拟基站,该方法包括:使基带处理单元中的硬件加速器处理多个虚拟基站的待传输的数据,经处理的数据被存储在硬件加速器中与多个虚拟基站相关联的第一组多个缓冲区中;以与多个虚拟基站相关联的预定顺序从第一组多个缓冲区读取经处理的数据;以及将经处理的数据写入基带处理单元的通用处理器中的第二组多个缓冲区,以便所述通用处理器的进一步处理。
在第二方面,本公开的实施例提供了一种在基带处理单元处实现的方法,该基带处理单元上布置有多个虚拟基站,该方法包括:使基带处理单元中的通用处理器处理多个虚拟基站的待传输的数据,经处理的数据被存储在通用处理器中与多个虚拟基站相关联的第一组多个缓冲区中;以与多个虚拟基站相关联的预定顺序从第一组多个缓冲区读取经处理的数据;以及将经处理的数据写入基带处理单元的硬件加速器中的第二组多个缓冲区,以便硬件加速器的进一步处理。
在第三方面,本公开的实施例提供了一种通信设备,所述通信设备上布置有多个虚拟基站,所述通信设备包括:硬件加速器,被配置为处理所述多个虚拟基站的待传输的数据,经处理的数据被存储在所述硬件加速器中与所述多个虚拟基站相关联的第一组多个缓冲区中;通用处理器,被配置为:以与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据;以及将所述经处理的数据写入所述通用处理器中的第二组多个缓冲区,以便进一步处理。
在第四方面,本公开的实施例提供了一种通信设备,所述通信设备上布置有多个虚拟基站,所述通信设备包括:硬件加速器;通用处理器,被配置为:处理多个虚拟基站的待传输的数据,经处理的数据被存储在通用处理器中与多个虚拟基站相关联的第一组多个缓冲区中;以与多个虚拟基站相关联的预定顺序从第一组多个缓冲区读取经处理的数据;以及将经处理的数据写入所述硬件加速器中的第二组多个缓冲区,以便硬件加速器的进一步处理。
通过下文描述将会理解,本公开的实施例,多个虚拟基站之间可以实现共享的总线和标准接口(PCIe),从而降低了硬件的复杂性以及简化了PCIe设备驱动器的开发。根据本公开的实施例,不需要虚拟化开销。根据本公开的实施例,不同虚拟基站之间接入PCIe设备时的冲突可以被避免,从而获得更高的I/O吞吐量。根据本发明的实施例,根据本公开的实施例,多个虚拟基站之间的I/O带宽可以被动态地再分配。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开实施例的关键或重要特征,亦非用于限制本公开的范围。本公开的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了本公开的实施例可以在其中实施的示例通信网络;
图2A示出了根据本公开的实施例的设备图。
图2B示出了根据本公开的实施例的基于硬件加速器和通用处理器的处理构架的框图;
图3示出了根据本公开的实施例的硬件加速器和通用处理器的框图;
图4示出了根据本公开的实施例的通信方法的流程图;
图5示出了根据本公开的实施例的通信方法的流程图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在此使用的术语“网络设备”是指在基站或者通信网络中具有特定功能的其他实体或节点。“基站”(BS)可以表示节点B(NodeB或者NB)、演进节点B(eNodeB或者eNB)、远程无线电单元(RRU)、射频头(RH)、远程无线电头端(RRH)、中继器、或者诸如微微基站、毫微微基站等的低功率节点等等。在本公开的上下文中,为讨论方便之目的,术语“网络设备”和“基站”可以互换使用,并且可能主要以eNB作为网络设备的示例。
在此使用的术语“终端设备”或“用户设备”(UE)是指能够与基站之间或者彼此之间进行无线通信的任何终端设备。作为示例,终端设备可以包括移动终端(MT)、订户台(SS)、便携式订户台(PSS)、移动台(MS)或者接入终端(AT),以及车载的上述设备。在本公开的上下文中,为讨论方便之目的,术语“终端设备”和“用户设备”可以互换使用。
在本公开的上下文中,为讨论方便之目的,“现场可编程门阵列(FPGA)”、“总线和标准接口(PCIe)”和“加速器”可以互换使用。
在此使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”。其他术语的相关定义将在下文描述中给出。
近些年,通用处理器(GPP)发展地很迅速。诸如多CPU/多核、单指令多数据结构(SIMD)以及大的片上缓存器等新的特征在单个GPP服务器上支持多个无线的堆栈是可能的。GPP的一个优点是其可以向后兼容,这确保了软件可以运行在新一代的处理器上而无需任何改变,并且对于无线堆栈的平滑升级也是有益的。GPP的另一个优点是它可以很好地支持虚拟化技术。市场上有很多诸如Linux容器(Linux Container)、VMware、KVM和Xen等的虚拟化产品。虚拟化技术允许多个虚拟机(VM)同时地运行在相同的物理机器上。即,虚拟基站彼此独立并且在开放的平台上由虚拟化可以容易地支持多标准操作。
由于FPGA在单位能耗的情况下具有更高的性能,通用处理器和FPGA的组合可以实现更高的性能、更低的功耗和更好的兼容性。在实际系统中,计算密集型的物理层处理可以由FPGA处理,MAC层等可以由通用处理器完成。下面将对此进行详细解释。
现有的FPGA芯片可以支持多达6个LTE小区的物理层处理,并且一个x86CPU内核可以支持两个小区的MAC层处理。因此,一个具有多个CPU内核和一个FPGA卡的x86服务器可以支持多个小区的无线栈。随着插入更多的FPGA卡,一个服务器可以支持更多的小区。
应当注意,尽管本公开的实施例主要结合FPGA描述,但是应当理解,这仅仅是示例性的而无意以任何方式限制本公开的范围。任何具有与FPGA具有相同或者近似处理特性的设备均可替代FPGA或与之结合使用来实现本公开的实施例。在本公开的实施例中,这些设备可以称为“硬件加速器”。
此外,还应当注意,尽管本公开的实施例主要实现在linux容器环境中,这仅仅是示例性的而无意以任何方式限制本公开的范围。任何具有与linux容器具有相同或者近似的组件均可替代linux容器或与之结合使用来实现本公开的实施例。
由于基于PCIe的FPGA可以负担多个基站的物理层处理,并且在一个主板上存在有限数目的PCIe槽,因此在多个虚拟基站之间共享基于PCIe的FPGA是必要的。
现有技术中,虚拟层(Hypervisor)实现了以软件的方式的虚拟机之间共享设备。为了改进PCIe设备的I/O性能,通过向每个虚拟机提供独立的存储器空间、中断和直接内存存取(DMA)流,单根I/O虚拟化(Single-root I/O virtualization,SR-IOV)被提出用于避开数据移动中虚拟层的参与。SR-IOV架构被设计来允许I/O设备支持多种虚拟功能,其比传统的PCIe设备更加复杂。为了实现由多个虚拟机进行访问,PCIe设备必须支持SR-IOV,这也增加了硬件开销。SR-IOV同样影响虚拟机中的虚拟层和PCIe驱动器。SR-IOV的另一个严重的问题是,分配给虚拟机的资源共享是静态的。某虚拟机中的未充分使用的PCIe虚拟功能的I/O能力不能够被其他过载的虚拟机共享。上述问题与鼓励在租户间共享资源的云的思想相冲突。
为了至少部分解决上述以及潜在的问题,本公开的实施例涉及用于多个虚拟基站以高效地方式共享用于PHY处理的PCIe设备。根据本公开的实施例,PCIe设备不需要支持SR-IOV,其消除了由虚拟层引入的开销,提高了PHY实时性能,并且减少了PCIe卡的复杂性和成本。
近年,产生了一种名为linux容器新型的轻量级虚拟化技术。Linux容器允许linux系统在单个服务器上使用单个linux内核运行多个独立的虚拟系统。它可以提供从容器到主机以及其他容器的隔离。Linux容器可以实现与本地linux系统相同的实时性能,该特性对于无线网络基带信号处理而言很重要并且可以被应用于云RAN和5G网络。仅作为示例,根据本公开的一些实施例使用了linux容器技术。
图1示出了本公开的实施例可以在其中实施的示例通信网络100。通信网络100包括基带处理单元101和核心网103。基带处理单元101和核心网103可以彼此传输数据。基带处理单元101上可以布置多个虚拟基站(未示出)。应理解,图1所示的处理单元101和核心网103的数目仅仅是出于说明之目的而无意于限制。
图2A示出了根据本公开的实施例的设备230。根据本公开的实施例,通信设备230可以在图1所示的基带处理单元101处实现。该通信设备230包括硬件加速器204和通用处理器214。硬件加速器204和通用处理器214之间可以进行数据交换。应当理解,尽管在图2A中仅示出了一个硬件加速器204和一个通用处理器214,但所示数目仅仅是出于说明之目的而无意于限制。
图2B示出了根据本公开的实施例的基于硬件加速器和通用处理器的处理构架的框图200。根据本发明的实施例,图2B示出的处理构架可以在图1中所示的基带处理单元101处实现。该架构200包括硬件加速器204和通用处理器214。应当理解,尽管在图2B中仅示出了一个硬件加速器204和一个通用处理器214,但所示数目仅仅是出于说明之目的而无意于限制。架构200还可以包括射频模块(未示出),该射频模块可以经由硬件加速器204和通用处理器214与核心网络(未示出)进行通信。在图1所示的基带处理单元101中,可以存在任意适当数目的硬件加速器204和通用处理器214。每个通用处理器可以具有任意适当数目的内核,每个内核可以具有任意适当数目的线程。在图2B的示例中,出于简化的目的,仅示出了一个通用处理器214,其包括8个内核,即内核-0至内核-7。
另外,硬件加速器204经由PCI Express(PCIe)接口210与根复合体(rootcomplex,RC)212连接。硬件加速器204还可以经由NGFI接口(未示出)与射频模块(未示出)连接。上行和下行物理层处理的所有或者部分处理可以硬件加速器204中完成。
硬件加速器204还可以包括多个处理块(processing block)208。图2B示出了6个处理块。在某些实施例中,一个处理块可以是硬件加速器204或者其他设备中的一个模块或单元。如上所述,硬件加速器204可以支持六个虚拟基站的物理层处理,因而可以将硬件加速器204分为六个处理块,即处理块1至处理块6,每个处理块支持一个虚拟基站的处理。应当理解,数目仅仅是出于说明之目的而无意于限制,硬件加速器204可以分为任意适当数目的处理块。应当理解,处理块的划分仅为逻辑上的划分,而非物理上地被划分。在某些实施例中,硬件加速器可以是FPGA。
下面将结合图3至图5分别从上行链路和下行链路的角度,对本公开的原理和具体实施例进行详细说明。在本公开的实施例中,上行链路是指从硬件加速器到通用处理器的链路,下行链路是指从通用处理器到硬件加速器的链路。应当理解,在本公开的实施例中,上行链路和下行链路的定义仅是为了描述的目的,其不以任何形式限制本公开的内容。
仅作为示例,图3是根据本公开的实施例的硬件加速器和通用处理器的框图300。框图300包括硬件加速器302和通用处理器304。硬件加速器302包括用于对虚拟基站的数据进行物理层处理的模块(例如,3022-1、3022-2、3022-3)。例如,物理层处理模块3022-1用于虚拟基站-1的上行和下行物理层处理,物理层处理模块3022-2用于虚拟基站-2的上行和下行物理层处理以及物理层处理模块3022-3用于虚拟基站-3的上行和下行物理层处理。硬件加速器302在逻辑上被划分为多个物理层处理的模块(例如,3022-1、3022-2、3022-3)。硬件加速器302还包括第一组多个缓冲区3024,该第一组多个缓冲区3024用于缓冲经物理层处理的数据和/或用于缓冲将被进行物理层处理的数据。第一组多个缓冲区3024中的第一缓冲区3024-1是虚拟基站-1上行缓冲区,即,其被用于缓冲经由虚拟基站-1的物理层处理模块3022-1处理的并且将被发送到通用处理器304的数据。第一组多个缓冲区3024中的第二缓冲区3024-2是虚拟基站-1下行缓冲区,即,其被用于缓冲经由通用处理器处理的并且将被发送到虚拟基站-1的物理层处理模块3022-1进行进一步处理的数据。类似的,第一组多个缓冲区3024中的第三缓冲区3024-3是虚拟基站-2上行缓冲区,即,其被用于缓冲经由虚拟基站-2的物理层处理模块3022-2处理的并且将被发送到通用处理器304的数据。第一组多个缓冲区3024中的第四缓冲区3024-4是虚拟基站-2下行缓冲区,即,其被用于缓冲经由通用处理器处理的并且将被发送到虚拟基站-2的物理层处理模块3022-2进行进一步处理的数据。第一组多个缓冲区3024中的第五缓冲区3024-5是虚拟基站-3上行缓冲区,即,其被用于缓冲经由虚拟基站-3的物理层处理模块3022-5处理的并且将被发送到通用处理器304的数据。第一组多个缓冲区3024中的第六缓冲区3024-6是虚拟基站-3下行缓冲区,即,其被用于缓冲经由通用处理器处理的并且将被发送到虚拟基站-3的物理层处理模块3022-3进行进一步处理的数据。应当理解,图3中示出的硬件加速器302中的物理层处理模块的数目以及第一组多个缓冲区中的缓冲区数目仅出于说明之目的而无意于限制。硬件加速器302可以包括任何合适数目的物理层处理模块以及第一组多个缓冲区。
图3所示的通用处理器304包括本地操作系统3040。数据移动代理3042和第二组多个缓冲区3044被实现在本地操作系统3040中。数据移动代理3042被配置为在硬件加速器302和通用处理器304之间移动数据。数据移动代理3042的示例性操作将在下文结合图4和图5详细地说明。第二组多个缓冲区3044用于缓冲将被进行MAC层处理的数据和/或用于缓冲经MAC层处理的数据。第二组多个缓冲区3044中的第一缓冲区3044-1是虚拟基站-1上行缓冲区,即,其被用于缓冲经由硬件加速器302处理的并且将被进行MAC层处理的数据。第二组多个缓冲区中的第二缓冲区3044-2是虚拟基站-1下行缓冲区,即,其被用于缓冲经由MAC层处理的并且将被发送到硬件加速器302的数据。类似的,第二组多个缓冲区3044中的第三缓冲区3044-3是虚拟基站-2上行缓冲区,即,其被用于缓冲经由硬件加速器302处理的并且将被进行MAC层处理的数据。第二组多个缓冲区中的第四缓冲区3044-4是虚拟基站-2下行缓冲区,即,其被用于缓冲经由MAC层处理的并且将被发送到硬件加速器302的数据。第二组多个缓冲区3044中的第五缓冲区3044-5是虚拟基站-3上行缓冲区,即,其被用于缓冲经由硬件加速器302处理的并且将被进行MAC层处理的数据。第二组多个缓冲区中的第六缓冲区3044-6是虚拟基站-3下行缓冲区,即,其被用于缓冲经由MAC层处理的并且将被发送到硬件加速器302的数据。
仅作为示例,通用处理器304还包括linux容器(3046-1、3046-2、3046-3)。每个linux容器对应一个虚拟基站,即linux容器3046-1对应于虚拟基站-1,linux容器3046-2对应于虚拟基站-2以及linux容器3046-3对应于虚拟基站-3。linux容器3046-1包括虚拟基站-1上行缓冲区3048-1、虚拟基站-1下行缓冲区3048-2以及虚拟基站-1MAC层处理模块3050-1。linux容器中的上行缓冲区和下行缓冲区与在本地操作系统中相应的上行缓冲区和下行缓冲区映射在相同的物理存储器片段。即,本地操作系统3040中的虚拟基站-1上行缓冲区3044-1与linux容器3046-1中虚拟基站-1上行缓冲区3048-1被映射到相同的物理存储器片段。同样的,本地操作系统3040中的虚拟基站-1下行缓冲区3044-2与linux容器3046-1中虚拟基站-1下行缓冲区3048-2被映射到相同的物理存储器片段。本地操作系统3040中的虚拟基站-2上行缓冲区3044-3与linux容器3046-2中虚拟基站-2上行缓冲区3048-3被映射到相同的物理存储器片段。本地操作系统3040中的虚拟基站-2下行缓冲区3044-4与linux容器3046-2中虚拟基站-2下行缓冲区3048-4被映射到相同的物理存储器片段。本地操作系统3040中的虚拟基站-3上行缓冲区3044-5与linux容器3046-3中虚拟基站-3上行缓冲区3048-5被映射到相同的物理存储器片段。本地操作系统3040中的虚拟基站-3下行缓冲区3044-6与linux容器3046-3中虚拟基站-3下行缓冲区3048-6被映射到相同的物理存储器片段。因此,实现了linux容器之间的内存共享。
应当理解,图3中所示的第二组多个缓冲区的缓冲区数目和linux容器的数目仅是示例性的。通用处理器304可以包括任何合适数目的第二组多个缓冲区和linux容器。
现在结合图3和图4,具体描述根据本公开的实施例的一种通信方法。图4示出了根据本公开的实施例的通信方法400的流程图。图4所示的通信方法400可以在图2A所示的设备230处实现。
在402,基带处理单元101中的硬件加速器302处理多个虚拟基站的待传输数据,经处理的数据被存储在硬件加速器302中与多个虚拟基站相关联的第一组多个缓冲区3024中。在某些实施例中,硬件加速器302对待传输数据进行物理层处理。在某些实施例中,对待传输数据进行物理层处理包括:对待传输数据进行物理层处理链中的计算密集型的处理。
在404,经处理的数据从第一组多个缓冲区3024以与多个虚拟基站相关联的预定顺序被读取。在某些实施例中,,经处理的数据从第一组缓冲区3024以轮询的方式被读取。仅作为示例,参考图3,图3中所示的数据移动代理3042被运行在本地操作系统3040上。数据移动代理3042在硬件加速器302和通用处理器304之间移动数据。数据移动代理3042是唯一可以访问硬件加速器302的进程。在某些实施例中,数据移动代理3042可以按照预定顺序周期地读取硬件加速器302中上行链路缓冲区(例如,3024-1、3024-3、3024-5)中的数据。本领域技术人员可以理解,预定顺序可以是任何合适的预定顺序,本公开的实施例在此方面不受限制。在某些实施例中,数据移动代理3042可以按照预定顺序定期地逐一检查硬件加速器302中上行链路缓冲区(例如,3024-1、3024-3、3024-5)中是否有需要被读取的数据,从而实现以轮询的方式从第一组缓冲区3024读取数据。在某些实施例中,数据移动代理3042可以检查设置在第一组缓冲区3024中的上行缓冲区(例如,3024-1、3024-3、3024-5)的标志来确定是否有数据需要被读取。
在某些实施例中,经处理的数据从第一组多个缓冲区3024以与多个虚拟基站相关联的预定顺序被读取包括:读取第一组多个缓冲区3024的第一缓冲区中的数据;以及响应于第一缓冲区中的数据全部被读取,开始读取第一组多个缓冲区中的第二缓冲区中的数据,第一缓冲区在预定顺序中先于第二缓冲区。参考图3,仅作为示例,假设第一组多个缓冲区3024中的虚拟基站-1上行链路缓冲区3024-1在预定顺序中先于虚拟基站-2上行链路缓冲区3024-3,数据移动代理3042将读取虚拟基站-1上行链路缓冲区3024-1中的数据,待虚拟基站-1上行链路缓冲区3024-1中的数据全部被读取后,数据移动代理3042开始读取虚拟基站-2上行链路缓冲区3024-3中的数据。
在某些实施例中,经处理的数据从第一组多个缓冲区3024以与多个虚拟基站相关联的预定顺序被读取包括:读取第一组多个缓冲区3024的第三缓冲区中的预定数目的数据;以及响应于第三缓冲区中的预定数目的数据被读取,开始读取第一组多个缓冲区中的第四缓冲区中的数据,第三缓冲区在预定顺序中先于第四缓冲区。参考图3,仅作为示例,假设第一组多个缓冲区中的虚拟基站-1上行链路缓冲区3024-1在预定顺序中先于虚拟基站-2上行链路缓冲区3024-3,数据移动代理3042将读取虚拟基站-1上行链路缓冲区3024-1中的数据,待虚拟基站-1上行链路缓冲区3024-1中的预定数目的数据被读取后,数据移动代理3042开始读取虚拟基站-2上行链路缓冲区3024-3中的数据。
在406,经处理的数据被写入基带处理单元101中的通用处理器304中的第二组多个缓冲区3044,以便通用处理器304的进一步处理。在某些实施例中,通用处理器304对经处理的数据进一步进行媒体访问控制MAC层处理。参考图3,仅作为示例,数据移动代理3042将从硬件加速器302的第一组多个缓冲区3024读取的数据写入通用处理器304的第二组多个缓冲区3044中。仅作为示例,数据移动代理3042将从第一组多个缓冲区3024中虚拟基站-1上行缓冲区3024-1中读取的数据写入第二组多个缓冲区3044虚拟基站-1上行缓冲区3044-1。类似地,数据移动代理3042将从第一组多个缓冲区3024中虚拟基站-2上行缓冲区3024-3中读取的数据写入第二组多个缓冲区3044虚拟基站-2上行缓冲区3044-3。数据移动代理3042将从第一组多个缓冲区3024中虚拟基站-3上行缓冲区3024-5中读取的数据写入第二组多个缓冲区3044虚拟基站-3上行缓冲区3044-5。如前所述,在某些实施例中,第二组多个缓冲区3044与相应的linux容器的缓冲区(例如,3048-1、3048-3、3048-5)被映射到相同的物理存储器片段中,linux容器可以直接从物理存储器片段中读取数据以进行MAC层处理。
现在结合图3和图5,具体描述根据本公开的实施例的一种通信方法。图5示出了根据本公开的实施例的通信方法500的流程图。图5所示的通信方法500可以在图2A所示的设备230处实现。
在502,基带处理单元101中的通用处理器304处理多个虚拟基站的待传输的数据,经处理的数据被存储在通用处理器304中与多个虚拟基站相关联的第一组多个缓冲3044中。在某些实施例中,通用处理器304对待传输数据进行媒体访问控制MAC层处理。
在504,经处理的数据从第一组多个缓冲区3044以与多个虚拟基站相关联的预定顺序被读取。在某些实施例中,,经处理的数据从第一组缓冲区3044以轮询的方式被读取。仅作为示例,参考图3,图3中所示的数据移动代理3042被运行在本地操作系统3040上。数据移动代理3042在硬件加速器302和通用处理器304之间移动数据。数据移动代理3042是唯一可以访问硬件加速器302的进程。在某些实施例中,数据移动代理3042可以按照预定顺序周期地读取通用处理器304中下行链路缓冲区(例如,3044-2、3044-4、3044-6)中的数据。本领域技术人员可以理解,预定顺序可以是任何合适的预定顺序,本公开的实施例在此方面不受限制。在某些实施例中,数据移动代理3042可以按照预定顺序定期地逐一检查通用处理器304中下行链路缓冲区(例如,3044-2、3044-4、3044-6)中是否有需要被读取的数据,从而实现以轮询的方式从第一组缓冲区3044读取数据。在某些实施例中,数据移动代理3042可以检查设置在第一组缓冲区3044中的下行链路缓冲区(例如,3044-2、3044-4、3044-6)的标志来确定是否有数据需要被读取。
在某些实施例中,经处理的数据从第一组多个缓冲区3044以与多个虚拟基站相关联的预定顺序被读取包括:读取第一组多个缓冲区3044的第一缓冲区中的数据;以及响应于第一缓冲区中的数据全部被读取,开始读取第一组多个缓冲区中的第二缓冲区中的数据,第一缓冲区在预定顺序中先于第二缓冲区。参考图3,仅作为示例,假设第一组多个缓冲区3044中的虚拟基站-1下行链路缓冲区3044-2在预定顺序中先于虚拟基站-2下行链路缓冲区3044-4,数据移动代理3042将读取虚拟基站-1下行链路缓冲区3044-2中的数据,待虚拟基站-1下行链路缓冲区3044-2中的数据全部被读取后,数据移动代理3042开始读取虚拟基站-2下行链路缓冲区3044-4中的数据。
在某些实施例中,经处理的数据从第一组多个缓冲区3044以与多个虚拟基站相关联的预定顺序被读取包括:读取第一组多个缓冲区3044的第三缓冲区中的预定数目的数据;以及响应于第三缓冲区中的预定数目的数据被读取,开始读取第一组多个缓冲区中的第四缓冲区中的数据,第三缓冲区在预定顺序中先于第四缓冲区。参考图3,仅作为示例,假设第一组多个缓冲区3044中的虚拟基站-1下行链路缓冲区3044-2在预定顺序中先于虚拟基站-2下行链路缓冲区3044-4,数据移动代理3042将读取虚拟基站-1下行链路缓冲区3044-2中的数据,待虚拟基站-1下行链路缓冲区3044-2中的预定数目的数据被读取后,数据移动代理3042开始读取虚拟基站-2下行链路缓冲区3044-4中的数据。
在506,经处理的数据被写入基带处理单元101中的硬件加速器302中的第二组多个缓冲区3042,以便硬件加速器302的进一步处理。在某些实施例中,硬件加速器302对经处理的数据进一步进行物理层处理。参考图3,仅作为示例,数据移动代理3042将从通用处理器304的第一组多个缓冲区3044中读取的数据写入硬件加速器302的第二组多个缓冲区3024。仅作为示例,数据移动代理3042将从第一组多个缓冲区3044中虚拟基站-1下行缓冲区3044-2中读取的数据写入第二组多个缓冲区3024虚拟基站-1下行缓冲区3024-2。类似地,数据移动代理3042将从第一组多个缓冲区3044中虚拟基站-2下行缓冲区3044-4中读取的数据写入第二组多个缓冲区3024虚拟基站-2下行缓冲区3024-4。数据移动代理3042将从第一组多个缓冲区3044中虚拟基站-3下行缓冲区3044-6中读取的数据写入第二组多个缓冲区3024虚拟基站-3下行缓冲区3024-6。
如前所述,图2A示出了根据本公开的某些实施例的通信设备230的框图、可以理解,设备230可以在例如图1所示的基带处理单元101处实现。如图所示,设备230包括硬件加速器204和通用控制器214。设备600被用于实现图4所示的通信方法时,硬件加速器204被配置为处理多个虚拟基站的待传输的数据,经处理的数据被存储在硬件加速器中与多个虚拟基站相关联的第一组多个缓冲区中;通用处理器214,被配置为:以与多个虚拟基站相关联的预定顺序从第一组多个缓冲区读取经处理的数据;以及将经处理的数据写入通用处理器中的第二组多个缓冲区,以便进一步处理。
在某些实施例中,通用处理器214还被配置为:以轮询的方式从第一组多个缓冲区读取所述经处理的数据。
在某些实施例中,通用处理器214还被配置为:读取第一组多个缓冲区的第一缓冲区中的数据;以及响应于第一缓冲区中的数据被全部读取,开始读取第一组多个缓冲区中的第二缓冲区中的数据,第一缓冲区在预定顺序中先于第二缓冲区。
在某些实施例中,通用处理器214还被配置为:读取第一组多个缓冲区的第三缓冲区中的预定数目的数据;以及响应于第三缓冲区中的预定数目的数据被读取,开始读取第一组多个缓冲区中的第四缓冲区中的数据,第三缓冲区在所述预定顺序中先于第四缓冲区。
在某些实施例中,硬件加速器204被配置为对待传输的数据进行物理层处理,通用处理器214被配置为对经处理的数据进一步进行媒体访问控制层处理。
设备600被用于实现图5所示的通信方法时,设备600包括硬件加速器204;通用处理器214,被配置为:处理多个虚拟基站的待传输的数据,经处理的数据被存储在通用处理器214中与多个虚拟基站相关联的第一组多个缓冲区中;以与多个虚拟基站相关联的预定顺序从第一组多个缓冲区读取经处理的数据;以及将经处理的数据写入硬件加速器204中的第二组多个缓冲区,以便硬件加速器204的进一步处理。
在某些实施例中,通用处理器214还被配置为:以轮询的方式从第一组多个缓冲区读取经处理的数据。
在某些实施例中,通用处理器214还被配置为:读取第一组多个缓冲区的第一缓冲区中的数据;以及响应于所述第一缓冲区中的数据被全部读取,开始读取第一组多个缓冲区中的第二缓冲区中的数据,第一缓冲区在预定顺序中先于第二缓冲区。
在某些实施例中,通用处理器214还被配置为:读取第一组多个缓冲区的第三缓冲区中的预定数目的数据;以及响应于所述第三缓冲区中的预定数目的数据被读取,开始读取第一组多个缓冲区中的第四缓冲区中的数据,第三缓冲区在预定顺序中先于第四缓冲区。
在某些实施例中,通用处理器214还被配置为对待传输的数据进行媒体访问控制层处理,硬件加速器204还被配置为对经处理的数据进一步进行物理层处理。
表1中示出了可以实现本公开的实施例的计算机程序代码。应当理解,表1中的计算机程序代码仅为示例作用,本公开的范围不在此方面受限制。
表1
Figure BDA0001239506320000161
Figure BDA0001239506320000171
Figure BDA0001239506320000181
Figure BDA0001239506320000191
Figure BDA0001239506320000201
Figure BDA0001239506320000211
Figure BDA0001239506320000221
一般而言,本公开的各种示例实施例可以在硬件或专用电路、软件、逻辑,或其任何组合中实施。某些方面可以在硬件中实施,而其他方面可以在可以由控制器、微处理器或其他计算设备执行的固件或软件中实施。当本公开的实施例的各方面被图示或描述为框图、流程图或使用某些其他图形表示时,将理解此处描述的方框、装置、系统、技术或方法可以作为非限制性的示例在硬件、软件、固件、专用电路或逻辑、通用硬件或控制器或其他计算设备,或其某些组合中实施。
作为示例,本公开的实施例可以在机器可执行指令的上下文中被描述,机器可执行指令诸如包括在目标的真实或者虚拟处理器上的器件中执行的程序模块中。一般而言,程序模块包括例程、程序、库、对象、类、组件、数据结构等,其执行特定的任务或者实现特定的抽象数据结构。在各实施例中,程序模块的功能可以在所描述的程序模块之间合并或者分割。用于程序模块的机器可执行指令可以在本地或者分布式设备内执行。在分布式设备中,程序模块可以位于本地和远程存储介质二者中。
用于实现本公开的方法的计算机程序代码可以用一种或多种编程语言编写。这些计算机程序代码可以提供给通用计算机、专用计算机或其他可编程的数据处理装置的处理器,使得程序代码在被计算机或其他可编程的数据处理装置执行的时候,引起在流程图和/或框图中规定的功能/操作被实施。程序代码可以完全在计算机上、部分在计算机上、作为独立的软件包、部分在计算机上且部分在远程计算机上或完全在远程计算机或服务器上执行。
在本公开的上下文中,机器可读介质可以是包含或存储用于或有关于指令执行系统、装置或设备的程序的任何有形介质。机器可读介质可以是机器可读信号介质或机器可读存储介质。机器可读介质可以包括但不限于电子的、磁的、光学的、电磁的、红外的或半导体系统、装置或设备,或其任意合适的组合。机器可读存储介质的更详细示例包括带有一根或多根导线的电气连接、便携式计算机磁盘、硬盘、随机存储存取器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪存)、光存储设备、磁存储设备,或其任意合适的组合。
另外,尽管操作以特定顺序被描绘,但这并不应该理解为要求此类操作以示出的特定顺序或以相继顺序完成,或者执行所有图示的操作以获取期望结果。在某些情况下,多任务或并行处理会是有益的。同样地,尽管上述讨论包含了某些特定的实施细节,但这并不应解释为限制任何发明或权利要求的范围,而应解释为对可以针对特定发明的特定实施例的描述。本说明书中在分开的实施例的上下文中描述的某些特征也可以整合实施在单个实施例中。反之,在单个实施例的上下文中描述的各种特征也可以分离地在多个实施例或在任意合适的子组合中实施。
尽管已经以特定于结构特征和/或方法动作的语言描述了主题,但是应当理解,所附权利要求中限定的主题并不限于上文描述的特定特征或动作。相反,上文描述的特定特征和动作是作为实现权利要求的示例形式而被公开的。

Claims (24)

1.一种在基带处理单元处实现的方法,所述基带处理单元上布置有多个虚拟基站,所述方法包括:
使所述基带处理单元中的硬件加速器处理所述多个虚拟基站的待传输的数据,经处理的数据被存储在所述硬件加速器中与所述多个虚拟基站相关联的第一组多个缓冲区中;
以与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据;以及
将所述经处理的数据写入所述基带处理单元的通用处理器中的第二组多个缓冲区,以便所述通用处理器的进一步处理。
2.根据权利要求1所述的方法,其中以与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据包括:
以轮询的方式从所述第一组多个缓冲区读取所述经处理的数据。
3.根据权利要求1所述的方法,其中以与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据包括:
读取所述第一组多个缓冲区的第一缓冲区中的数据;以及
响应于所述第一缓冲区中的所述数据被全部读取,开始读取所述第一组多个缓冲区中的第二缓冲区中的数据,所述第一缓冲区在所述预定顺序中先于所述第二缓冲区。
4.根据权利要求1所述的方法,其中以与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据包括:
读取所述第一组多个缓冲区的第三缓冲区中的预定数目的数据;以及
响应于所述第三缓冲区中的所述预定数目的数据被读取,开始读取所述第一组多个缓冲区中的第四缓冲区中的数据,所述第三缓冲区在所述预定顺序中先于所述第四缓冲区。
5.根据权利要求1所述的方法,其中所述硬件加速器对所述待传输的数据进行物理层处理,所述通用处理器对所述经处理的数据进一步进行媒体访问控制层处理。
6.根据权利要求1所述的方法,其中所述硬件加速器是现场可编程门阵列FPGA,所述通用处理器是中央处理器。
7.一种在基带处理单元处实现的方法,所述基带处理单元上布置有多个虚拟基站,所述方法包括:
使所述基带处理单元中的通用处理器处理所述多个虚拟基站的待传输的数据,经处理的数据被存储在所述通用处理器中与所述多个虚拟基站相关联的第一组多个缓冲区中;
以与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据;以及
将所述经处理的数据写入所述基带处理单元的硬件加速器中的第二组多个缓冲区,以便所述硬件加速器的进一步处理。
8.根据权利要求7所述的方法,与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据包括:
以轮询的方式从所述第一组多个缓冲区读取所述经处理的数据。
9.根据权利要求7所述的方法,其中以与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据包括:
读取所述第一组多个缓冲区的第一缓冲区中的数据;以及
响应于所述第一缓冲区中的所述数据被全部读取,开始读取所述第一组多个缓冲区中的第二缓冲区中的数据,所述第一缓冲区在所述预定顺序中先于所述第二缓冲区。
10.根据权利要求7所述的方法,其中以与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据包括:
读取所述第一组多个缓冲区的第三缓冲区中的预定数目的数据;以及
响应于所述第三缓冲区中的所述预定数目的数据被读取,开始读取所述第一组多个缓冲区中的第四缓冲区中的数据,所述第三缓冲区在所述预定顺序中先于所述第四缓冲区。
11.根据权利要求7所述的方法,其中所述通用处理器对所述待传输的数据进行媒体访问控制层处理,所述硬件加速器对所述经处理的数据进一步进行物理层处理。
12.根据权利要求7所述的方法,其中所述硬件加速器是现场可编程门阵列FPGA,所述通用处理器是中央处理器。
13.一种通信设备,所述通信设备上布置有多个虚拟基站,所述通信设备包括:
硬件加速器,被配置为处理所述多个虚拟基站的待传输的数据,经处理的数据被存储在所述硬件加速器中与所述多个虚拟基站相关联的第一组多个缓冲区中;以及
通用处理器,被配置为:
以与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据;以及
将所述经处理的数据写入所述通用处理器中的第二组多个缓冲区,以便进一步处理。
14.根据权利要求13所述的设备,其中所述通用处理器还被配置为:
以轮询的方式从所述第一组多个缓冲区读取所述经处理的数据。
15.根据权利要求13所述的设备,其中所述通用处理器还被配置为:
读取所述第一组多个缓冲区的第一缓冲区中的数据;以及
响应于所述第一缓冲区中的所述数据被全部读取,开始读取所述第一组多个缓冲区中的第二缓冲区中的数据,所述第一缓冲区在所述预定顺序中先于所述第二缓冲区。
16.根据权利要求13所述的设备,其中所述通用处理器还被配置为:
读取所述第一组多个缓冲区的第三缓冲区中的预定数目的数据;以及
响应于所述第三缓冲区中的所述预定数目的数据被读取,开始读取所述第一组多个缓冲区中的第四缓冲区中的数据,所述第三缓冲区在所述预定顺序中先于所述第四缓冲区。
17.根据权利要求13所述的设备,其中所述硬件加速器对所述待传输的数据进行物理层处理,所述通用处理器对所述经处理的数据进一步进行媒体访问控制层处理。
18.根据权利要求13所述的设备,其中所述硬件加速器是现场可编程门阵列FPGA,所述通用处理器是中央处理器。
19.一种通信设备,所述通信设备上布置有多个虚拟基站,所述通信设备包括:
硬件加速器;
通用处理器,被配置为:
处理所述多个虚拟基站的待传输的数据,经处理的数据被存储在所述通用处理器中与所述多个虚拟基站相关联的第一组多个缓冲区中;
以与所述多个虚拟基站相关联的预定顺序从所述第一组多个缓冲区读取所述经处理的数据;以及
将所述经处理的数据写入所述硬件加速器中的第二组多个缓冲区,以便所述硬件加速器的进一步处理。
20.根据权利要求19所述的设备,其中所述通用处理器还被配置为:
以轮询的方式从所述第一组多个缓冲区读取所述经处理的数据。
21.根据权利要求19所述的设备,其中所述通用处理器还被配置为:
读取所述第一组多个缓冲区的第一缓冲区中的数据;以及
响应于所述第一缓冲区中的所述数据被全部读取,开始读取所述第一组多个缓冲区中的第二缓冲区中的数据,所述第一缓冲区在所述预定顺序中先于所述第二缓冲区。
22.根据权利要求19所述的设备,其中所述通用处理器还被配置为:
读取所述第一组多个缓冲区的第三缓冲区中的预定数目的数据;以及
响应于所述第三缓冲区中的所述预定数目的数据被读取,开始读取所述第一组多个缓冲区中的第四缓冲区中的数据,所述第三缓冲区在所述预定顺序中先于所述第四缓冲区。
23.根据权利要求19所述的设备,其中所述通用处理器对所述待传输的数据进行媒体访问控制层处理,所述硬件加速器对所述经处理的数据进一步进行物理层处理。
24.根据权利要求19所述的设备,其中所述硬件加速器是现场可编程门阵列FPGA,所述通用处理器是中央处理器。
CN201710129386.XA 2017-03-06 2017-03-06 用于虚拟基站的通信方法和设备 Active CN108540982B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201710129386.XA CN108540982B (zh) 2017-03-06 2017-03-06 用于虚拟基站的通信方法和设备
PCT/IB2018/000480 WO2018162991A2 (en) 2017-03-06 2018-03-06 Communication method and device for virtual base stations
US16/490,361 US10922153B2 (en) 2017-03-06 2018-03-06 Communication method and device for virtual base stations
EP18726852.9A EP3593253B1 (en) 2017-03-06 2018-03-06 Communication method and device for virtual base stations

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710129386.XA CN108540982B (zh) 2017-03-06 2017-03-06 用于虚拟基站的通信方法和设备

Publications (2)

Publication Number Publication Date
CN108540982A CN108540982A (zh) 2018-09-14
CN108540982B true CN108540982B (zh) 2021-10-22

Family

ID=62235986

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710129386.XA Active CN108540982B (zh) 2017-03-06 2017-03-06 用于虚拟基站的通信方法和设备

Country Status (4)

Country Link
US (1) US10922153B2 (zh)
EP (1) EP3593253B1 (zh)
CN (1) CN108540982B (zh)
WO (1) WO2018162991A2 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019084793A1 (en) 2017-10-31 2019-05-09 Nokia Shanghai Bell Co., Ltd. A method, apparatus and system for real-time virtual network function orchestration
EP3735081A4 (en) 2017-12-27 2020-12-16 Beijing Xiaomi Mobile Software Co., Ltd. PLANNING PROCEDURE, BASE STATION, TERMINAL DEVICE AND STORAGE MEDIUM
US11343083B2 (en) 2019-11-22 2022-05-24 Baidu Usa Llc Method for key sharing between accelerators in virtual channel
US11558357B2 (en) * 2019-11-22 2023-01-17 Baidu Usa Llc Method for key sharing between accelerators with switch
US11405336B2 (en) * 2019-11-22 2022-08-02 Baidu Usa Llc Method for key sharing between accelerators in virtual channel with switch
US11552790B2 (en) * 2019-11-22 2023-01-10 Baidu Usa Llc Method for key sharing between accelerators
US11516010B2 (en) 2019-12-10 2022-11-29 Baidu Usa Llc System and method to securely broadcast a message to accelerators using virtual channels
US11411934B2 (en) 2019-12-10 2022-08-09 Baidu Usa Llc System and method to securely broadcast a message to accelerators with switch
US11457354B2 (en) 2019-12-10 2022-09-27 Baidu Usa Llc System and method to securely broadcast a message to accelerators
US11728996B2 (en) 2019-12-10 2023-08-15 Baidu Usa Llc System and method to securely broadcast a message to accelerators using virtual channels with switch

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101645832A (zh) * 2009-05-07 2010-02-10 曙光信息产业(北京)有限公司 一种基于fpga的虚拟机网络数据包处理方法
EP2487982A1 (en) * 2011-02-10 2012-08-15 Alcatel Lucent Access device and method of operating an access device
CN102769574A (zh) * 2012-08-06 2012-11-07 华为技术有限公司 一种能够进行业务硬件加速的装置及其方法
CN203800957U (zh) * 2013-08-20 2014-08-27 国家电网公司 基于FPGA的网络Smurf攻击特征瞬时防御电路
CN105227543A (zh) * 2015-08-26 2016-01-06 电子科技大学 参数可配置的基于fpga的以太网udp/ip处理器

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10355720B2 (en) * 2001-04-26 2019-07-16 Genghiscomm Holdings, LLC Distributed software-defined radio
CN104348764B (zh) 2013-07-31 2017-09-19 国际商业机器公司 在数据接收链路中分配计算单元的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101645832A (zh) * 2009-05-07 2010-02-10 曙光信息产业(北京)有限公司 一种基于fpga的虚拟机网络数据包处理方法
EP2487982A1 (en) * 2011-02-10 2012-08-15 Alcatel Lucent Access device and method of operating an access device
CN102769574A (zh) * 2012-08-06 2012-11-07 华为技术有限公司 一种能够进行业务硬件加速的装置及其方法
CN203800957U (zh) * 2013-08-20 2014-08-27 国家电网公司 基于FPGA的网络Smurf攻击特征瞬时防御电路
CN105227543A (zh) * 2015-08-26 2016-01-06 电子科技大学 参数可配置的基于fpga的以太网udp/ip处理器

Also Published As

Publication number Publication date
WO2018162991A3 (en) 2018-10-25
US20200073734A1 (en) 2020-03-05
US10922153B2 (en) 2021-02-16
EP3593253A2 (en) 2020-01-15
WO2018162991A2 (en) 2018-09-13
EP3593253B1 (en) 2023-04-05
CN108540982A (zh) 2018-09-14

Similar Documents

Publication Publication Date Title
CN108540982B (zh) 用于虚拟基站的通信方法和设备
US10580105B2 (en) Container access to graphics processing unit resources
EP2829024B1 (en) Techniques for packet management in an input/output virtualization system
US8634302B2 (en) Apparatus for multi-cell support in a network
US10332235B1 (en) Direct memory access for graphics processing unit packet processing
US10540294B2 (en) Secure zero-copy packet forwarding
US20170286149A1 (en) Method for Managing Memory of Virtual Machine, Physical Host, PCIE Device and Configuration Method Thereof, and Migration Management Device
EP2880900B1 (en) Methods and systems for processing network messages in an accelerated processing device
US10452419B2 (en) Device virtualization for containers
CN108737131B (zh) 网络设备虚拟化的实现方法和装置
US10614542B2 (en) High granularity level GPU resource allocation method and system
CN110709818A (zh) 用于边缘云中的资源管理的方法和装置
EP3860187A1 (en) Information sending and receiving method and device, terminal, and base station
CN114691286A (zh) 服务器系统、虚拟机创建方法及装置
CN116886751A (zh) 一种异构设备的高速通信方法、装置和异构通信系统
CN106572500A (zh) 一种c‑ran中硬件加速器的调度方法
EP4148568A1 (en) Method for realizing live migration, chip, board, and storage medium
EP3504894B1 (en) Method and device for resource reconfiguration
CN115904259B (zh) 非易失性存储器标准NVMe指令的处理方法及相关装置
US20210014869A1 (en) Communication method and apparatus
US11582636B1 (en) Wireless communication service over a wireless network slice based on user equipment (UE) concentrations
US20240160492A1 (en) System and method for radio access network baseband workload pool resizing
CN117880107A (zh) 一种自适应调整热扩容虚机网卡设备参数的方法
CN117795476A (zh) 用于触发零周期上下文切换的系统和方法
CN117176963A (zh) 一种虚拟化视频编解码系统及方法、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant