CN113645282A - 一种基于服务器集群的深度学习方法 - Google Patents

一种基于服务器集群的深度学习方法 Download PDF

Info

Publication number
CN113645282A
CN113645282A CN202110862755.2A CN202110862755A CN113645282A CN 113645282 A CN113645282 A CN 113645282A CN 202110862755 A CN202110862755 A CN 202110862755A CN 113645282 A CN113645282 A CN 113645282A
Authority
CN
China
Prior art keywords
data
deep learning
learning method
switch
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110862755.2A
Other languages
English (en)
Inventor
张震宁
陈亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thinkforce Electronic Technology Co ltd
Original Assignee
Thinkforce Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thinkforce Electronic Technology Co ltd filed Critical Thinkforce Electronic Technology Co ltd
Priority to CN202110862755.2A priority Critical patent/CN113645282A/zh
Publication of CN113645282A publication Critical patent/CN113645282A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本发明提供一种基于服务器集群的深度学习方法,其中,服务器集群包括若干个分布式服务器以及第二交换机,任一分布式服务器包括若干个处理器模组及第一交换机。则深度学习方法包括:各分布式服务器通过网络获取外部设备数据,并分发至各处理器模组;各处理器模组接收到数据后,对外部设备数据进行运算处理分析;并通过网络,将运算处理分析结果返回至外部设备。

Description

一种基于服务器集群的深度学习方法
技术领域
本发明涉及深度学习技术领域,特别涉及一种基于服务器集群的深度学习方法。
背景技术
深度学习属于机器学习研究中的一个领域,其主要目的在于建立、模拟人脑进行分析学习的神经网络,通过模仿人脑的机制来解释数据,例如图像,声音和文本。深度机器学习方法包括监督学习与无监督学习,不同的学习框架下建立的学习模型不同。例如,卷积神经网络(Convolutional neural networks,简称CNNs)就是一种深度的监督学习下的机器学习模型,而深度置信网(Deep Belief Nets,简称DBNs)就是一种无监督学习下的机器学习模型。
基于服务器运行深度学习模型应用非常常见,例如图像识别、信号识别、网络分类等。由于深度学习模型运行本身需要极高的算力,将模型部署于服务器,通过本地网络或者互联网传输模型输入及输出结果是一种常见的应用场景。因此,会有一大部分深度学习模型会以部署在服务器的方式向市场提供人工智能方面的服务。
由于相较于CPU(Central Processing Unit,中央处理器)而言,GPU(GraphicsProcessing Unit,图像处理器)具有更强的浮点数运算能力,因此,深度学习通常采用GPU服务器实现。目前,常见的GPU服务器结构如图1所示,采用基于标准的外扩式服务器结构。所述GPU服务器包括多个CPU以及GPU,其中,通用性的计算任务由CPU完成,高度并行的深度学习计算任务由GPU完成,形成异构计算形态。CPU和GPU之间依靠PCIE总线进行通讯和数据交互。
在深度学习中通常存在一些强交互的场景,CPU与GPU需要进行大量的数据交互,而CPU的运算内存是基于自身所有的DDR接口连接,通常在主板上留有内存条插槽可以根据需要配置DDR内存容量,GPU的运算内存(通常也称为显存),则通常为已固定的容量配置,直接固化在GPU板卡上。CPU外挂内存和GPU显存之间的数据不共享,因此,在计算过程中,需要通过PCIE总线来回搬运,较为耗时,进而影响服务器运算效率。
发明内容
针对现有技术中的部分或全部问题,本发明提供一种基于服务器集群的深度学习方法,其中,所述服务器集群包括若干个分布式服务器以及第二交换机,所述分布式服务器中包括若干个处理器模组及第一交换机,所述深度学习方法包括:
各分布式服务器通过网络获取外部设备数据,并分发至各处理器模组;
各处理器模组对所述外部设备数据进行运算处理分析;以及
各处理器模组通过网络,将运算处理分析结果返回至外部设备。
进一步地,所述分布式服务器与外部设备之间及与以太网协议进行通信。
进一步地,所述分布式服务器通过网络获取外部设备数据包括:
任一分布式服务器仅接受指定外部设备的数据。
进一步地,所述分布式服务器通过网络获取外部设备数据包括:
所述第二交换机按照时间顺序,将外部设备发送的数据依次分发至各分布式服务器。
进一步地,所述分布式服务器通过网络获取外部设备数据包括:
任一分布式服务器仅接受指定类型的数据。
进一步地,将外部设备数据分发至各处理器模组包括:
所述第二交换机及第一交换机根据IP地址,将外部设备数据分发至各处理器模组。
进一步地,将外部设备数据分发至各处理器模组包括:
所述第二交换机根据IP地址,将外部设备数据分发至个分布式服务器的主控处理器;以及
所述主控处理器,通过第一交换机,根据IP地址,将所述外部设备数据分发至各处理器模组。
进一步地,各处理器模组进行运算处理分析所采用的算法相同或不同。
本发明提供的一种基于服务器集群的深度学习方法,其通过以太网协议,按照数据类型和/或时间顺序和/或设备类型,将外部设备数据和/或指令分发至各分布式服务器的处理器模组中,各处理器模组中可根据待处理的数据类型设置相同或不同的算法,形成灵活的组合,能够有效提高运算效率,或进行不同算法效果的比对。
附图说明
为进一步阐明本发明的各实施例的以上和其它优点和特征,将参考附图来呈现本发明的各实施例的更具体的描述。可以理解,这些附图只描绘本发明的典型实施例,因此将不被认为是对其范围的限制。在附图中,为了清楚明了,相同或相应的部件将用相同或类似的标记表示。
图1示出现有技术中的一种GPU服务器的结构示意图;
图2示出本发明一个实施例中一种面向深度学习的分布式服务器的结构示意图;
图3示出本发明一个实施例中处理器模组的功能框图示意图;
图4示出本发明一个实施例中的一种服务器集群的结构示意图;以及
图5示出本发明一个实施例中的一种基于服务器集群的深度学习方法。
具体实施方式
以下的描述中,参考各实施例对本发明进行描述。然而,本领域的技术人员将认识到可在没有一个或多个特定细节的情况下或者与其它替换和/或附加方法、材料或组件一起实施各实施例。在其它情形中,未示出或未详细描述公知的结构、材料或操作以免模糊本发明的发明点。类似地,为了解释的目的,阐述了特定数量、材料和配置,以便提供对本发明的实施例的全面理解。然而,本发明并不限于这些特定细节。此外,应理解附图中示出的各实施例是说明性表示且不一定按正确比例绘制。
在本说明书中,对“一个实施例”或“该实施例”的引用意味着结合该实施例描述的特定特征、结构或特性被包括在本发明的至少一个实施例中。在本说明书各处中出现的短语“在一个实施例中”并不一定全部指代同一实施例。
需要说明的是,本发明的实施例以特定顺序对工艺步骤进行描述,然而这只是为了阐述该具体实施例,而不是限定各步骤的先后顺序。相反,在本发明的不同实施例中,可根据工艺的调节来调整各步骤的先后顺序。
本发明基于发明人的如下洞察:随着深度学习计算任务复杂程度的提高,单一的GPU服务器已经难以满足其需求,因此,需要部署GPU服务器集群。然而,很多现有的数据中心或数据机房条件,难以容纳能满足业务需求的GPU服务器集群,这主要是由于GPU服务器的功耗较高,其单机功耗通常在1000瓦以上,这就使得其无法在服务器机架上密集部署,当需要大量部署GPU服务器时,往往对于数据中心的供电和散热有特殊设计要求。
现有的GPU服务器多采用通过PCIE总线衔接的CPU+GPU架构,CPU与GPU之间通过PCIE总线进行通讯和数据交互。而造成现有的GPU服务器功耗较高的原因,一方面是由于其所采用的CPU及GPU本身的性能,另一方面则是由于CPU与GPU之间的数据搬运。具体而言,现有的GPU服务器中采用的CPU多为x86 CISC架构,其功耗本身较高,同时GPU内部有很多用于图形运算的部分,而这些部分并无法用于人工智能运算,还会造成额外的功耗。在一些CPU与GPU计算强交互的场景下,例如和系统存在交互的场景,有大量的任务只能通过CPU来完成,也就是说,在GPU进行深度学习计算任务的处理过程中,需要与CPU进行大量的数据交互。其中,所述数据交互包括:从CPU获取经CPU预处理过的外部数据,以及将深度学习计算结果返回值CPU等。对于存在大量数据库的访问,其访问类型是随机的,这种情况下,数据需要反复在DRAM,CPU和GPU之间搬运,导致服务器的效率低功耗高。
因此,若要实现能够满足深度学习计算任务需求的服务器集群,可以从以下几个方面考虑:
1.采用功耗更低的芯片或器件;
2.优化CPU与GPU之间的数据交互方式。
基于此,本发明提供一种面向深度学习的分布式服务器,其包括若干个分布式设置的处理器模组,且任一所述处理器模组中均包括CPU、深度学习加速单元和其他逻辑模块的处理器芯片(异构处理器),及与其协同工作的动态内存、固态存储、数据通信电路等。其中,所述CPU、深度学习加速单元以及其他芯片及模块之间通过内部总线通讯,各处理器模组件则通过例如以太网等网络方式进行通信,也可进一步和服务器外部的网络设备连接,以便进行数据和控制指令交互。下面结合实施例附图对本发明的方案做进一步描述。
在本发明中,所述“外部设备”可以包括网络摄像头、视频流化服务器、数据存储设备等,其通常作为数据源,所述分布式服务器读取所述外部设备的数据,并进行运算处理分析。
图2示出本发明一个实施例中一种面向深度学习的分布式服务器的结构示意图。如图2所示,一种面向深度学习的分布式服务,包括若干个处理器模组101、电源模块102以及数据通信模块103。
所述处理器模组101分布式布置,通过所述数据通信模块103与外部设备实现通信。所述电源模块102用于为所述处理器模组101以及数据通信模块103供电。
图3示出本发明一个实施例中处理器模组的功能框图示意图。如图3所示,任一所述处理器模组均包括多核CPU模块301、深度学习加速引擎阵列302、通信模块303以及存储模块304。所述多核CPU模块301包括若干个并行分布的CPU 3011,在本发明的一个实施例中,所述多核CPU模块301采用RISC指令集架构,例如所述CPU 3011可采用ARM芯片,采用RISC架构的ARM芯片的性能与传统的CISC架构的x86 CPU性能相当,但相较于传统的集中式的单个或两个多核x86 CPU,多核RISC架构CPU模块集成度更高,计算效能更优。所述深度学习加速引擎阵列302包括若干个深度学习单元3021,所述深度学习单元采用特定领域架构(Domain Specific Architecture,DSA)方式搭建形成,为张量运算处理单元,并整合了图像解码能力,能够针对计算特点优化,因此相较于传统的GPU,具有更高的性能但更低的功耗,具有更高的视频解析吞吐能力。所述深度学习单元通过内部AXI总线与所述多核CPU模块301进行通信,在本发明的一个实施例中,所述深度学习单元采用脉动阵列实现运算。所述通信模块303包括一个或多个同类或不同类型的通信接口,所述通信接口例如可包括:PCIE总线接口、RGMII接口、以及UART接口等,所述通信模块303通过内部AXI总线与所述多核CPU模块301以及深度学习加速引擎阵列302通信。所述存储模块304包括一个或多个相同或不同类型的存储芯片,所述存储芯片例如可以包括:直接存储DDR、内嵌式存储器eMMC等,在本发明的实施例中,所述多核CPU模块301以及深度学习加速引擎阵列302通过内部AXI总线与所述存储模块304通信,也就是说,所述多核CPU模块301以及深度学习加速引擎阵列302共用存储空间,能够访问同一存储空间内的数据,这就使得在深度学习计算任务中,即便是进行异构运算,也不需要进行数据搬运,大大提高了计算能效。此外,内部AXI总线为芯片内部模块的互联结构,其可以利用芯片内部更高的密度实现更宽的总线和更高的速率,相较于PCIE总线而言,具有更优的延迟及速率性能。
具体而言,在实际应用中,任一所述处理器模组可包括多个运算簇,任一所述运算簇至少包括一个CPU核和/或一个深度学习单元以及若干相同或不同类型的存储芯片,所述运算簇支持容器,能够独立完成深度学习计算任务,这也使得出现单点故障时,不会影响到其他运算簇,尽可能小地降低单点故障的影响。在本发明的一个实施例中,所述多个运算簇包括一个主簇及多个从簇,所述主簇用于实现与其他处理器模组和/或外部设备的通信,接收深度学习任务,并将所述深度学习任务分配至各从簇,各从簇接收到深度学习任务后执行,并将结果通过所述主簇,反馈至其他处理器模组和/或外部设备。
在本发明的一个实施例中,任一所述处理器模组均设置有唯一的IP网络地址,且能够通过以太网协议与所述分布式服务器内的其他处理器模组实现通信。所述数据通信模块103包括第一交换机,其中,所述第一交换机与各处理器模组可通信地连接,所述处理器模组经由所述第一交换机实现与外部设备的通信,在本发明的一个实施例中,所述第一交换机为网络交换芯片。
在本发明的一个实施例中,通过第二交换机,将多个所述分布式服务器连接至外部设备,进而形成服务器集群。
图4示出本发明一个实施例中的一种服务器集群的结构示意图。如图4所示,所述服务器集群包括m个分布式服务器以及第二交换机,任一所述分布式服务器中包含至少一个处理器模组以及一个第一交换机。在任一分布式服务器内,所述第一交换机为各处理器模组设置有唯一的IP网络地址,使得各处理器模组之间能够通过以太网等网络协议进行通信,同时,各第一交换机连接至所述第二交换机,进而实现与各个外部设备间的通信,所述外部设备可以通过所述第二交换机及第一交换机实现各处理器模组运行状态的控制。
在本发明的其他实施例中,所述服务器集群也可以指定服务器内多个模组中的某一个作为该服务器内部的主控处理器,所述主控处理器通过第一及第二交换机与外部设备通信,接收数据及指令,并通过网口命令控制其余模组的运行状态。
图5示出本发明一个实施例中的一种基于服务器集群的深度学习方法。如图5所示,所述深度学习方法包括:
首先,在步骤501,获取数据。各分布式服务器通过网络获取外部设备的数据,其中,所述外部设备包括视频和/或图像采集设备,数据存储设备等,例如网络摄像头、视频流化服务器、存储卡等,在本发明的一个实施例中,通过第二交换机收集各外部设备的数据,并分发至各分布式服务器,具体分发方式例如可以是:
各外部设备与各分布式服务器形成固定的对应关系,例如,外部设备1的数据发送至分布式服务器1处理,外部设备2的数据发送至分布式服务器2处理,依此类推,在本发明的其他实施例中,也可以一个外部设备对应多个分布式服务器,一个分布式服务器对应多个外部设备;或
按照时间顺序依此分发接收的数据,例如,第一次收到的数据发送至分布式服务器1,第二次收到的数据发送至分布式服务器2,依此类推,在本发明的其他实施例中,也可根据其他时间顺序分发数据;或
按照数据类型分发,例如,将视频数据发送至分布式服务器1,将图片数据发送至分布式服务器2等,在本发明的其他实施例中,也可将同类数据发送至多个分布式服务器,或将多类数据发送至一个分布式服务器;
应当理解的是,在本发明的其他实施例中,数据分发方式并不限于上述举例;
在本发明的一个实施例中,所述数据直接根据IP地址,分发至各分布式服务器的各处理器模组;在本发明的又一个实施例中,所述数据根据IP地址分发至各分布式服务器的主控处理器,然后再由主控服务器分发至其他处理器模组;
接下来,在步骤502,数据分析。各处理器模组接收到数据后,进行运算处理分析,在单个分布式服务器内,各个处理器模组所运行的算法可以相同,也可以不同,从而形成灵活的组合,在实际操作中,各处理器模组运行的算法一方面可根据数据分发方式确定,另一方面也可根据运算需求设置,具体而言,例如根据数据分发方式,某处理器模组仅接收某指定类型或指定外部设备的数据,则所述处理器模组中运行的算法可设置为针对该类数据的最优算法,有例如当存在算法比对等需求时,也可针对同一类数据或同源数据,在不同处理器模组中设置不同的算法;以及
最后,在步骤503,返回结果。各处理器模组运算完成后,将结果通过网络返回至指定外部设备,至此完成深度学习运算任务。
尽管上文描述了本发明的各实施例,但是,应该理解,它们只是作为示例来呈现的,而不作为限制。对于相关领域的技术人员显而易见的是,可以对其做出各种组合、变型和改变而不背离本发明的精神和范围。因此,此处所公开的本发明的宽度和范围不应被上述所公开的示例性实施例所限制,而应当仅根据所附权利要求书及其等同替换来定义。

Claims (8)

1.一种基于服务器集群的深度学习方法,其特征在于,所述服务器集群包括若干个分布式服务器以及第二交换机,任一所述分布式服务器包括若干个处理器模组及第一交换机,且所述深度学习方法包括步骤:
各分布式服务器通过网络获取外部设备数据,并分发至各处理器模组;
各处理器模组对所述外部设备数据进行运算处理分析;以及
各处理器模组通过网络,将运算处理分析结果返回至外部设备。
2.如权利要求1所述的深度学习方法,其特征在于,所述分布式服务器与外部设备之间及与以太网协议进行通信。
3.如权利要求1所述的深度学习方法,其特征在于,所述分布式服务器通过网络获取外部设备数据包括:
任一分布式服务器仅接受指定外部设备的数据。
4.如权利要求1所述的深度学习方法,其特征在于,所述分布式服务器通过网络获取外部设备数据包括:
所述第二交换机按照时间顺序,将外部设备发送的数据依次分发至各分布式服务器。
5.如权利要求1所述的深度学习方法,其特征在于,所述分布式服务器通过网络获取外部设备数据包括:
任一分布式服务器仅接受指定类型的数据。
6.如权利要求1所述的深度学习方法,其特征在于,将外部设备数据分发至各处理器模组包括:
所述第二交换机及第一交换机根据IP地址,将外部设备数据分发至各处理器模组。
7.如权利要求1所述的深度学习方法,其特征在于,将外部设备数据分发至各处理器模组包括:
所述第二交换机根据IP地址,将外部设备数据分发至个分布式服务器的主控处理器;以及
所述主控处理器,通过第一交换机,根据IP地址,将所述外部设备数据分发至各处理器模组。
8.如权利要求1所述的深度学习方法,其特征在于,各处理器模组进行运算处理分析所采用的算法相同或不同。
CN202110862755.2A 2021-07-29 2021-07-29 一种基于服务器集群的深度学习方法 Pending CN113645282A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110862755.2A CN113645282A (zh) 2021-07-29 2021-07-29 一种基于服务器集群的深度学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110862755.2A CN113645282A (zh) 2021-07-29 2021-07-29 一种基于服务器集群的深度学习方法

Publications (1)

Publication Number Publication Date
CN113645282A true CN113645282A (zh) 2021-11-12

Family

ID=78418865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110862755.2A Pending CN113645282A (zh) 2021-07-29 2021-07-29 一种基于服务器集群的深度学习方法

Country Status (1)

Country Link
CN (1) CN113645282A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116980420A (zh) * 2023-09-22 2023-10-31 新华三技术有限公司 一种集群通信方法、系统、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105227669A (zh) * 2015-10-15 2016-01-06 浪潮(北京)电子信息产业有限公司 一种面向深度学习的cpu与gpu混合的集群架构系统
CN109358944A (zh) * 2018-09-17 2019-02-19 深算科技(重庆)有限公司 深度学习分布式运算方法、装置、计算机设备及存储介质
CN111614769A (zh) * 2020-05-22 2020-09-01 武汉魅瞳科技有限公司 一种深度学习技术的行为智能分析引擎系统及控制方法
CN112965809A (zh) * 2019-12-12 2021-06-15 深圳市优必选科技股份有限公司 深度学习任务处理系统和方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105227669A (zh) * 2015-10-15 2016-01-06 浪潮(北京)电子信息产业有限公司 一种面向深度学习的cpu与gpu混合的集群架构系统
CN109358944A (zh) * 2018-09-17 2019-02-19 深算科技(重庆)有限公司 深度学习分布式运算方法、装置、计算机设备及存储介质
CN112965809A (zh) * 2019-12-12 2021-06-15 深圳市优必选科技股份有限公司 深度学习任务处理系统和方法
CN111614769A (zh) * 2020-05-22 2020-09-01 武汉魅瞳科技有限公司 一种深度学习技术的行为智能分析引擎系统及控制方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116980420A (zh) * 2023-09-22 2023-10-31 新华三技术有限公司 一种集群通信方法、系统、装置、设备及介质
CN116980420B (zh) * 2023-09-22 2023-12-15 新华三技术有限公司 一种集群通信方法、系统、装置、设备及介质

Similar Documents

Publication Publication Date Title
US11315013B2 (en) Implementing parameter server in networking infrastructure for high-performance computing
Kim et al. A large-scale architecture for restricted boltzmann machines
TW201816595A (zh) 處理器及控制工作流的方法
US9946664B2 (en) Socket interposer having a multi-modal I/O interface
CN111614769B (zh) 一种深度学习技术的行为智能分析引擎系统及控制方法
CN110515889B (zh) 嵌入式fpga集群智能计算平台硬件框架
CN108388532A (zh) 可配置硬件算力的ai运算加速板卡及其处理方法、服务器
CN115552421A (zh) 具有深度学习加速器和随机存取存储器的边缘服务器
CN112631986B (zh) 大规模dsp并行计算装置
Park et al. TrainBox: an extreme-scale neural network training server architecture by systematically balancing operations
CN113645282A (zh) 一种基于服务器集群的深度学习方法
Min et al. NeuralHMC: An efficient HMC-based accelerator for deep neural networks
CN113627620A (zh) 一种面向深度学习的处理器模组
JP2015176435A (ja) Lsiチップ積層システム
CN111079908B (zh) 片上网络数据处理方法、存储介质、计算机设备和装置
CN117493237B (zh) 计算设备、服务器、数据处理方法和存储介质
CN109564562B (zh) 大数据运算加速系统和芯片
CN113902111A (zh) 多芯片互连系统及神经网络加速处理方法
CN116501684B (zh) 一种服务器系统及其通信方法
WO2021063026A1 (zh) 一种推理服务网络化的方法及装置
CN109918197B (zh) 数据处理装置
CN113645281A (zh) 一种面向深度学习的分布式服务器及服务器集群
CN209784995U (zh) 大数据运算加速系统和芯片
CN116225177A (zh) 内存系统、内存资源调节方法、装置、电子设备和介质
US20200310819A1 (en) Networked Computer

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination