CN111695685A - 一种面向图神经网络应用的片上存储系统及方法 - Google Patents
一种面向图神经网络应用的片上存储系统及方法 Download PDFInfo
- Publication number
- CN111695685A CN111695685A CN202010395809.4A CN202010395809A CN111695685A CN 111695685 A CN111695685 A CN 111695685A CN 202010395809 A CN202010395809 A CN 202010395809A CN 111695685 A CN111695685 A CN 111695685A
- Authority
- CN
- China
- Prior art keywords
- spm
- data
- chip
- neural network
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/90335—Query processing
- G06F16/90339—Query processing by using parallel associative memories or content-addressable memories
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Neurology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出一种面向图神经网络应用的片上存储系统及方法,包括:步骤1,根据处理单元对图神经网络模型中向量数据的访存请求,判断在片上存储系统的第一级CAM结构中是否有于该访存请求对应的查询结果,若有则执行步骤2,否则判断在片上存储系统的第二级CAM结构中是否有于该访存请求对应的查询结果,若有则执行步骤2,否则根据所需的向量数据批量对片外存储器发起片外访存请求,并替换片上存储内的指定向量数据;步骤2,根据该查询结果,得到对应的SPM索引标记,利用该SPM索引标记中的Sector Index字段以向量方式访问SPM中的相应向量数据,并将该相应数据返回给处理单元。本发明能有效提升面向图神经网络应用的片上存储系统的利用率和访存通量。
Description
技术领域
本发明涉及图神经网络应用领域,特别涉及一种面向图神经网络应用的片上存储系统。
背景技术
受神经网络强大学习能力的启发,为更有效地表示和处理图结构数据,图卷积神经网络(Graph convolutional neural networks,GCNs)应用而生。图神经网络模型将图数据转换入低维空间,同时最大程度地保留图的结构和属性信息,并通过构造神经网络的方式,进行后续的训练和推理。图神经网络凭借其极强的图数据信息表达能力,在工业界和学术界都得到了广泛关注,常用于解决包括图聚类、节点分类、推荐在内的诸多实际应用问题。因此图神经网络模型逐渐在各大网络公司(如Facebook、谷歌等)的数据中心技术中占据一席之地。
图神经网络模型包含两个不同的执行阶段:聚合(Aggregation)阶段通过遍历图对图中每个节点进行邻居节点特征向量信息的聚合;组合(Combination)阶段对图中每个节点的特征向量进行转换。这两个阶段不同的执行特征形成一种典型的混合执行模式,需要各自不同甚至对立的优化策略。Aggregation阶段需要更着重于访存的优化,而Combination阶段更需要提升运算的并行性和同步性。访存需求和模式的不同使得合理且高利用率地进行访存对图神经网络应用的性能提升产生重要意义。
由于Aggregation阶段访存的不规则性,传统CPU平台的存储系统无法高效支持图神经网络模型的运行,且难于实现不同运算单元之间的数据复用。GPU平台尽管为神经网络等计算密集型负载进行了优化,但仍然无法高效完成不规则访存,且Combination阶段需要完成高开销的数据拷贝工作。Aggregation和Combination两个阶段的混合执行模式,使得常见面向图计算和面向神经网络的专用加速器无法同时满足两个阶段的访存需求。而同时包含分别针对两个阶段加速引擎的系统也会导致存储资源利用率低下等问题。
发明内容
为解决上述问题,本发明提出一种面向图神经网络应用的片上存储系统。该系统针对图神经网络模型不同阶段的混合执行模式特点,配备动态可重配的片上存储,使Aggregation和Combination阶段能够统一高效地利用片上存储和以向量方式访问图神经网络中的向量数据,从而进一步减少图神经网络模型中的冗余访存,提高存储资源利用率和访存通量。
针对现有技术的不足,本发明提出一种面向图神经网络应用的片上存储方法,其中包括:
步骤1、根据处理单元对图神经网络模型中向量数据的访存请求,判断在片上存储系统的第一级CAM结构中是否有于该访存请求对应的查询结果,若有则执行步骤2,否则判断在片上存储系统的第二级CAM结构中是否有于该访存请求对应的查询结果,若有则执行步骤2,否则根据所需的向量数据批量对片外存储器发起片外访存请求,并替换片上存储内的指定向量数据;
步骤2、根据该查询结果,得到对应的SPM索引标记,利用该SPM索引标记中的SectorIndex字段以向量方式访问SPM中的相应向量数据,并将该相应数据返回给处理单元。
所述的面向图神经网络应用的片上存储方法,其中该第一级CAM结构和该第二级CAM结构中的每个条目均包含:查询标签和SPM索引标记;
该查询标签用于查询SPM索引标记,包含:用于区分图神经网络不同阶段的场景编号MID;聚合/输出特征向量的节点编号VID或输入特征向量的邻居节点编号NeiID或权重矩阵的行编号RowID。
该SPM索引标记包含:SPM数据替换提示标记与记录SPM数据首地址的区块编号。
所述的面向图神经网络应用的片上存储方法,其中以向量方式访问SPM中的相应向量数据包括:连续访问以Sector Index作为起始访存地址且以被访问向量数据的长度作为访存长度的片上存储空间。
所述的面向图神经网络应用的片上存储方法,其中
在SPM中分配预设值以下的第一存储空间用于存储多层感知器的参数;
在SPM中根据聚合运算后得到的特征向量长度以及当前在线处理的节点数量分配第二存储空间,用于存储聚合后的特征向量、多层感知器输出的特征向量;
在SPM中除去该第一存储空间和该第二存储空间以外的存储空间,用于缓存在图遍历期间产生数据替换的输入特征向量。
所述的面向图神经网络应用的片上存储方法,其中SPM以区块的形式组织数据,每个区块存储64Byte的数据,并以起始地址和向量数据长度完成存储向量数据的多个区块的连续访问。
本发明还提出了一种面向图神经网络应用的片上存储系统,其中包括:
模块1、根据处理单元对图神经网络模型中向量数据的访存请求,判断在片上存储系统的第一级CAM结构中是否有于该访存请求对应的查询结果,若有则执行模块2,否则判断在片上存储系统的第二级CAM结构中是否有于该访存请求对应的查询结果,若有则执行模块2,否则根据所需的向量数据批量对片外存储器发起片外访存请求,并替换片上存储内的指定向量数据;
模块2、根据该查询结果,得到对应的SPM索引标记,利用该SPM索引标记中的SectorIndex字段以向量方式访问SPM中的相应向量数据,并将该相应数据返回给处理单元。
所述的面向图神经网络应用的片上存储系统,其中该第一级CAM结构和该第二级CAM结构中的每个条目均包含:查询标签和SPM索引标记;
该查询标签用于查询SPM索引标记,包含:用于区分图神经网络不同阶段的场景编号MID;聚合/输出特征向量的节点编号VID或输入特征向量的邻居节点编号NeiID或权重矩阵的行编号RowID。
该SPM索引标记包含:SPM数据替换提示标记与记录SPM数据首地址的区块编号。
所述的面向图神经网络应用的片上存储系统,其中以向量方式访问SPM中的相应向量数据包括:连续访问以SectorIndex作为起始访存地址且以被访问向量数据的长度作为访存长度的片上存储空间。
所述的面向图神经网络应用的片上存储系统,其中
在SPM中分配预设值以下的第一存储空间用于存储多层感知器的参数;
在SPM中根据聚合运算后得到的特征向量长度以及当前在线处理的节点数量分配第二存储空间,用于存储聚合后的特征向量、多层感知器输出的特征向量;
在SPM中除去该第一存储空间和该第二存储空间以外的存储空间,用于缓存在图遍历期间产生数据替换的输入特征向量。
所述的面向图神经网络应用的片上存储系统,其中SPM以区块的形式组织数据,每个区块存储64Byte的数据,并以起始地址和向量数据长度完成存储向量数据的多个区块的连续访问。
由以上方案可知,本发明的优点在于:
(1)本发明采用两级CAM(内容可寻址存储器Content Addressed Memory),结构与SPM(便笺式存储器Scratch Pad Memory)存储单元结合的方式,支持图神经网络不同阶段统一使用相同的片上存储资源,能够动态进行存储划分,有效提升片上存储资源的利用率和访存通量;
(2)本发明中片上存储系统的SPM采用区块sector的形式组织数据并以向量方式访问数据,增强数据存储灵活性,便于进行动态存储划分,以及提高访存通量;
(3)本发明中片上存储系统的两级CAM结构,高效索引SPM中内容,且支持以较小开销动态根据存储划分进行信息重配。
附图说明
图1为单级CAM结构示意图;
图2为SPM存储单元结构示意图;
图3为片上存储系统访存示意图。
具体实施方式
本发明设计一种面向图神经网络应用的片上存储系统。该系统包含一块用于存储片上图数据的SPM(Scratch Pad Memory),以及用于检索SPM中数据的两级CAM结构。本发明利用动态可重配等策略支持图神经网络系统的不同阶段统一使用片上存储,提升存储资源利用率与访存通量。
1.两级CAM结构
本发明的片上存储系统中包含用于检索SPM中数据的两级CAM结构,结构示意图参见附图1。该两级CAM结构通过动态可重配性实现片上存储动态分割,从而有效地利用片上存储,满足图神经网络不同阶段执行过程中变化的存储需求。动态可重配性具体过程是将被各个存储空间存储的向量数据的条目写入到CAM结构中,向量数据存储到SPM存储单元中。比如分配第二存储空间的过程中,每个节点的向量数据的节点编号、MID和sectorindex作为一个条目,写入CAM结构中,向量数据根据sectorindex写入到SPM中。
第一级CAM用于检索SPM中最经常访问的数据,当有数据访存请求输入时,第一级CAM首先进行查询,如果发生缺失,则立即进行第二级CAM的查询。两级结构能够有效降低较大的单级(二级)CAM的查询开销。如附图1所示,CAM中的每个条目都包含两块内容:查询标签和SPM索引标记。查询标签用于查询SPM索引标记,包含两部分内容:用于区分图神经网络不同阶段的场景编号MID;聚合/输出特征向量的节点编号VID或输入特征向量的邻居节点编号NeiID或权重矩阵的行编号RowID。SPM索引标记包含两部分内容:SPM数据替换提示标记与记录SPM数据首地址的区块编号(Sector Index)。
存储单元需对四种不同类型的数据进行存储空间划分。在Aggregation阶段,SPM存储单元中仅缓存输入的节点特征向量以及聚合运算后得到的特征向量;在Combination阶段,SPM存储单元缓存聚合后的特征向量、多层感知器(Multi-layered perceptron,MLP)的参数以及输出的特征向量。如附图1所示,对应于上述四种不同类型数据,每个SPM索引标记可用于索引不同类型的数据,具体内容为:InFVAddr包含输入特征向量的地址和记录输入特征向量中剩余未处理出度的ReOutDeg,即数据替换指示标记;OutFVAddr包含输出特征向量的地址;AggFVAddr包含聚合后特征向量的地址;WRowAddr包含权重矩阵的行地址。
2.SPM存储单元
如附图2所示,为方便数据重置,本发明片上存储系统中的SPM以一系列区块(sector)的形式组织数据,每个区块可以存储64Byte的数据。由于在图神经网络模型的单个层/迭代中,特征向量的长度和权重矩阵行的尺寸是确定的,因此特征数据和权重参数可存储于连续的若干区块中,且仅需用一个地址来索引起始区块即可。
SPM中存储空间分配规则如下:1)对于多层感知器的参数,仅需分配较小的固定存储空间;2)对于聚合后的以及输出的特征向量,存储空间分配取决于这些特征向量的长度以及当前在线处理的节点数量;3)剩余的存储空间可用于缓存在图遍历期间产生数据替换的输入特征向量。在运行时,本系统能够动态地将大型SPM存储进行分割,分配给不同类型的数据,并且只需很小的开销即可根据存储需求调整CAM结构中的相应条目。
为让本发明的上述特征和效果能阐述的更明确易懂,下文特举实施例,并配合说明书附图作详细说明如下。
本发明针对图神经网络应用中不同阶段变化的访存需求特性,设计统一的片上存储系统,利用两级CAM结构与SPM的构架方式灵活地组织和检索片上图数据,同时通过动态可重配性有效提升存储资源利用率和访存通量。
下面从具体示例对本发明的具体实施方式进行进一步说明。
附图3为该片上存储系统的访存过程示意图。在图神经网络模型访存过程中,片上存储系统根据输入的节点编号或邻居节点编号,以及用于区分图神经网络不同阶段的场景编号MID在两级CAM结构中对被访问的向量数据的存储起始地址进行查询,得到SPM中对应向量数据的起始sector地址和数据替换指示标记,并将连续多个sector内的数据返回给处理单元,具体步骤如下:
步骤301:片上存储系统接收输入的访存请求,请求内容包含了节点编号或邻居节点编号,以及用于区分图神经网络不同阶段的场景编号MID;
步骤302:根据请求信息,首先在第一级CAM结构(L1CAM)中进行查询;
步骤303:若L1CAM无法索引得到向量数据的访存起始sector地址,则在第二级CAM结构(L2CAM)中进行查询;
步骤304:根据L1/L2CAM的查询结果,得到对应的SPM索引标记,利用其中的SectorIndex字段连续访问SPM中相应多个sector的数据,以完成向量数据的访问;
步骤305:SPM返回所需向量数据给处理单元;
步骤306:若两级CAM的查询均失败,则SPM需要片外访存进行数据替换。SPM存储单元根据SPM中所有输入特征向量的数据替换指示标记,选择剩余未处理出度最小的输入特征向量,批量对片外存储器发起片外访存请求,并替换该向量数据。
上述访存方式不是用地址访存,而是通过CAM中节点编号等信息首先索引获取SPM索引项,然后通过SPM索引项访问SPM存储器中数据。由此可以体现出本申请面向的是图数据的访存过程。
Claims (10)
1.一种面向图神经网络应用的片上存储方法,其特征在于,包括:
步骤1、根据处理单元对图神经网络模型中向量数据的访存请求,判断在片上存储系统的第一级CAM结构中是否有于该访存请求对应的查询结果,若有则执行步骤2,否则判断在片上存储系统的第二级CAM结构中是否有于该访存请求对应的查询结果,若有则执行步骤2,否则根据所需的向量数据批量对片外存储器发起片外访存请求,并替换片上存储内的指定向量数据;
步骤2、根据该查询结果,得到对应的SPM索引标记,利用该SPM索引标记中的SectorIndex字段以向量方式访问SPM中的相应向量数据,并将该相应数据返回给处理单元。
2.如权利要求1所述的面向图神经网络应用的片上存储方法,其特征在于,该第一级CAM结构和该第二级CAM结构中的每个条目均包含:查询标签和SPM索引标记;
该查询标签用于查询SPM索引标记,包含:用于区分图神经网络不同阶段的场景编号MID;聚合/输出特征向量的节点编号VID或输入特征向量的邻居节点编号NeiID或权重矩阵的行编号RowID。
该SPM索引标记包含:SPM数据替换提示标记与记录SPM数据首地址的区块编号。
3.如权利要求1所述的面向图神经网络应用的片上存储方法,其特征在于,以向量方式访问SPM中的相应向量数据包括:连续访问以Sector Index作为起始访存地址且以被访问向量数据的长度作为访存长度的片上存储空间。
4.如权利要求2所述的面向图神经网络应用的片上存储方法,其特征在于,
在SPM中分配预设值以下的第一存储空间用于存储多层感知器的参数;
在SPM中根据聚合运算后得到的特征向量长度以及当前在线处理的节点数量分配第二存储空间,用于存储聚合后的特征向量、多层感知器输出的特征向量;
在SPM中除去该第一存储空间和该第二存储空间以外的存储空间,用于缓存在图遍历期间产生数据替换的输入特征向量。
5.如权利要求4所述的面向图神经网络应用的片上存储方法,其特征在于,SPM以区块的形式组织数据,每个区块存储64Byte的数据,并以起始地址和向量数据长度完成存储向量数据的多个区块的连续访问。
6.一种面向图神经网络应用的片上存储系统,其特征在于,包括:
模块1、根据处理单元对图神经网络模型中向量数据的访存请求,判断在片上存储系统的第一级CAM结构中是否有于该访存请求对应的查询结果,若有则执行模块2,否则判断在片上存储系统的第二级CAM结构中是否有于该访存请求对应的查询结果,若有则执行模块2,否则根据所需的向量数据批量对片外存储器发起片外访存请求,并替换片上存储内的指定向量数据;
模块2、根据该查询结果,得到对应的SPM索引标记,利用该SPM索引标记中的SectorIndex字段以向量方式访问SPM中的相应向量数据,并将该相应数据返回给处理单元。
7.如权利要求6所述的面向图神经网络应用的片上存储系统,其特征在于,该第一级CAM结构和该第二级CAM结构中的每个条目均包含:查询标签和SPM索引标记;
该查询标签用于查询SPM索引标记,包含:用于区分图神经网络不同阶段的场景编号MID;聚合/输出特征向量的节点编号VID或输入特征向量的邻居节点编号NeiID或权重矩阵的行编号RowID。
该SPM索引标记包含:SPM数据替换提示标记与记录SPM数据首地址的区块编号。
8.如权利要求7所述的面向图神经网络应用的片上存储系统,其特征在于,以向量方式访问SPM中的相应向量数据包括:连续访问以Sector Index作为起始访存地址且以被访问向量数据的长度作为访存长度的片上存储空间。
9.如权利要求8所述的面向图神经网络应用的片上存储系统,其特征在于,
在SPM中分配预设值以下的第一存储空间用于存储多层感知器的参数;
在SPM中根据聚合运算后得到的特征向量长度以及当前在线处理的节点数量分配第二存储空间,用于存储聚合后的特征向量、多层感知器输出的特征向量;
在SPM中除去该第一存储空间和该第二存储空间以外的存储空间,用于缓存在图遍历期间产生数据替换的输入特征向量。
10.如权利要求4所述的面向图神经网络应用的片上存储系统,其特征在于,SPM以区块的形式组织数据,每个区块存储64Byte的数据,并以起始地址和向量数据长度完成存储向量数据的多个区块的连续访问。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010395809.4A CN111695685B (zh) | 2020-05-12 | 2020-05-12 | 一种面向图神经网络应用的片上存储系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010395809.4A CN111695685B (zh) | 2020-05-12 | 2020-05-12 | 一种面向图神经网络应用的片上存储系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111695685A true CN111695685A (zh) | 2020-09-22 |
CN111695685B CN111695685B (zh) | 2023-09-26 |
Family
ID=72477607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010395809.4A Active CN111695685B (zh) | 2020-05-12 | 2020-05-12 | 一种面向图神经网络应用的片上存储系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111695685B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114239816A (zh) * | 2021-12-09 | 2022-03-25 | 电子科技大学 | 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4038537A (en) * | 1975-12-22 | 1977-07-26 | Honeywell Information Systems, Inc. | Apparatus for verifying the integrity of information stored in a data processing system memory |
WO2014190695A1 (zh) * | 2013-05-31 | 2014-12-04 | 华为技术有限公司 | 一种内存系统、内存访问请求的处理方法和计算机系统 |
WO2017156968A1 (zh) * | 2016-03-16 | 2017-09-21 | 中国科学院计算技术研究所 | 神经网络的计算方法、系统及其装置 |
CN108959384A (zh) * | 2018-05-31 | 2018-12-07 | 康键信息技术(深圳)有限公司 | 网页数据获取方法、装置、计算机设备和存储介质 |
US20190087716A1 (en) * | 2016-04-18 | 2019-03-21 | Institute Of Computing Technology, Chinese Academy Of Sciences | Method and system for processing neural network |
-
2020
- 2020-05-12 CN CN202010395809.4A patent/CN111695685B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4038537A (en) * | 1975-12-22 | 1977-07-26 | Honeywell Information Systems, Inc. | Apparatus for verifying the integrity of information stored in a data processing system memory |
WO2014190695A1 (zh) * | 2013-05-31 | 2014-12-04 | 华为技术有限公司 | 一种内存系统、内存访问请求的处理方法和计算机系统 |
WO2017156968A1 (zh) * | 2016-03-16 | 2017-09-21 | 中国科学院计算技术研究所 | 神经网络的计算方法、系统及其装置 |
US20190087716A1 (en) * | 2016-04-18 | 2019-03-21 | Institute Of Computing Technology, Chinese Academy Of Sciences | Method and system for processing neural network |
CN108959384A (zh) * | 2018-05-31 | 2018-12-07 | 康键信息技术(深圳)有限公司 | 网页数据获取方法、装置、计算机设备和存储介质 |
Non-Patent Citations (6)
Title |
---|
GUANHUA WANG等: "Data Allocation for Embedded Systems with Hybrid On-Chip Scratchpad and Caches", 《2013 IEEE INTERNATIONAL CONFERENCE ON HIGH PERFORMANCE COMPUTING AND COMMUNICATIONS & 2013 IEEE INTERNATIONAL CONFERENCE ON EMBEDDED AND UBIQUITOUS COMPUTING》 * |
GUANHUA WANG等: "Data Allocation for Embedded Systems with Hybrid On-Chip Scratchpad and Caches", 《2013 IEEE INTERNATIONAL CONFERENCE ON HIGH PERFORMANCE COMPUTING AND COMMUNICATIONS & 2013 IEEE INTERNATIONAL CONFERENCE ON EMBEDDED AND UBIQUITOUS COMPUTING》, 12 June 2014 (2014-06-12), pages 366 - 373 * |
张旭等: "面向图计算应用的处理器访存通路优化设计与实现", 《国防科技大学学报》 * |
张旭等: "面向图计算应用的处理器访存通路优化设计与实现", 《国防科技大学学报》, vol. 42, no. 02, 28 April 2020 (2020-04-28), pages 13 - 22 * |
曾成龙: "面向嵌入式 FPGA 的高性能卷积神经网络加速器设计", 《计算机辅助设计与图形学学报》 * |
曾成龙: "面向嵌入式 FPGA 的高性能卷积神经网络加速器设计", 《计算机辅助设计与图形学学报》, vol. 31, no. 9, 30 September 2019 (2019-09-30), pages 1645 - 1652 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114239816A (zh) * | 2021-12-09 | 2022-03-25 | 电子科技大学 | 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 |
CN114239816B (zh) * | 2021-12-09 | 2023-04-07 | 电子科技大学 | 一种卷积神经网络-图卷积神经网络可重构硬件加速架构 |
Also Published As
Publication number | Publication date |
---|---|
CN111695685B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255055B (zh) | 一种基于分组关联表的图数据存取方法和装置 | |
CN103631911B (zh) | 基于数组存储和向量处理的olap查询处理方法 | |
CN109299113A (zh) | 具有存储感知的混合索引的范围查询方法 | |
CN112000846B (zh) | 基于gpu分组lsm树索引的方法 | |
CN110795363B (zh) | 一种存储介质的热页预测方法和页面调度方法 | |
CN110532200B (zh) | 一种基于混合内存架构的内存系统 | |
US20180300330A1 (en) | Proactive spilling of probe records in hybrid hash join | |
CN104158744A (zh) | 用于网络处理器的建表和查找方法 | |
CN106682184B (zh) | 一种基于日志合并树结构的轻量级合并方法 | |
US20170092358A1 (en) | Content addressable memory with an ordered sequence | |
US20220414155A1 (en) | Database management method and apparatus based on lookup table | |
CN104166649B (zh) | 一种用于搜索引擎的缓存方法和设备 | |
CN115033185A (zh) | 访存处理方法和装置、存储装置、芯片、板卡、电子设备 | |
CN111695685B (zh) | 一种面向图神经网络应用的片上存储系统及方法 | |
CN112069088B (zh) | 一种地址映射管理方法及相关装置、设备 | |
CN107273443B (zh) | 一种基于大数据模型元数据的混合索引方法 | |
CN109213760A (zh) | 非关系数据存储的高负载业务存储及检索方法 | |
CN110990340B (zh) | 一种大数据多层次存储架构 | |
US8660974B2 (en) | Inference over semantic network with some links omitted from indexes | |
CN110110034A (zh) | 一种基于图的rdf数据管理方法、装置及存储介质 | |
Yao et al. | NV-QALSH: an nvm-optimized implementation of query-aware locality-sensitive hashing | |
CN114579537A (zh) | 分布式图数据库的优化方法、装置、电子设备及存储介质 | |
CN113284573A (zh) | 一种文档数据库检索方法与装置 | |
CN113721839B (zh) | 用于处理图数据的计算系统和存储分层方法 | |
CN117193674B (zh) | 一种提升物联网设备海量数据存取效能的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |