CN107844435A - 一种缓存系统、方法及装置 - Google Patents

一种缓存系统、方法及装置 Download PDF

Info

Publication number
CN107844435A
CN107844435A CN201711090356.9A CN201711090356A CN107844435A CN 107844435 A CN107844435 A CN 107844435A CN 201711090356 A CN201711090356 A CN 201711090356A CN 107844435 A CN107844435 A CN 107844435A
Authority
CN
China
Prior art keywords
data
cmem
processing
storage location
internal storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711090356.9A
Other languages
English (en)
Inventor
闫小龙
万月亮
王梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Ruian Technology Co Ltd
Original Assignee
Beijing Ruian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Ruian Technology Co Ltd filed Critical Beijing Ruian Technology Co Ltd
Priority to CN201711090356.9A priority Critical patent/CN107844435A/zh
Publication of CN107844435A publication Critical patent/CN107844435A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • G06F12/0868Data transfer between cache memory and other subsystems, e.g. storage devices or host systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/25Using a specific main memory architecture
    • G06F2212/251Local memory within processor subsystem

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明实施例公开了一种缓存系统、方法及装置,所述系统包括中央处理器CPU芯片和核心存储介质cmem,其中,所述cmem集成在所述CPU芯片内部,并与所述CPU芯片中的运算单元相连;所述方法包括:访问内部集成的cmem获取输入数据;对所述输入数据进行处理获得处理完成的数据;将所述处理完成的数据通过所述cmem输出至内存单元。本发明实施例中CPU芯片无需访问内存单元获取数据,因此能够避免刷新、同步内存单元的操作,同时避免产生访问延时等待和抖动现象,节省数据同步、拷贝以及刷新的时间开销,从而提高整体系统的处理效率和运行效率。

Description

一种缓存系统、方法及装置
技术领域
本发明实施例涉及计算机网络应用技术领域,尤其涉及一种缓存系统、方法及装置。
背景技术
一个完整的嵌入式系统包括CPU芯片(Central Processing Unit,中央处理器)处理单元、内存单元、外部存储单元、I/O(input/output,输入/输出端口)操作单元。CPU芯片处理单元处理数据时需要与内存单元进行传输数据等交互,然而CPU芯片的运行频率一般时几个GHZ,即使是与CPU芯片交互效率相对较高的内存单元一次传输周期一般是几百个时钟周期。因此,内存单元存储待处理数据的内存访问速度和CPU芯片的处理速度相差悬殊,致使CPU芯片资源大部分时间处于等待状态,从而导致系统运算资源的巨大浪费。
目前,针对上述问题主要采用的解决方法为分级缓存方式,应用最广泛的是三级缓存机制。在三级缓存机制中,访问速度由CPU芯片向外依次递减,容量和访问速度依次增大。虽然分级缓存的方式可以在一定程度上提升系统的处理效率,但是CPU芯片在一段时间内处理的数据和指令都是一定范围内局部性的数据和指令。当程序中分支判断较多,单个分支处理流程较长,而且输入的数据没有规律时,CPU芯片短时间内要处理的数据超出三级缓存中其中一个缓存单元的容量后,需要在缓存单元和内存单元中频繁切换访问,会造成缓存数据反复被重新刷新,进而耗费大量额外的CPU芯片时钟周期同步数据。这种现
象被称为抖动现象,处于抖动现象中的CPU芯片处理效率受刷新缓存的影响反而会降低。
发明内容
本发明提供一种缓存系统、方法及装置,以实现避免刷新、同步内存单元的操作,同时避免产生访问延时等待和抖动现象,节省数据同步、拷贝以及刷新的时间开销,从而提高整体系统的处理效率和运行效率。
第一方面,本发明实施例提供了一种缓存系统,包括,中央处理器CPU芯片和核心存储介质cmem,其中,所述cmem集成在所述CPU芯片内部,并与所述CPU芯片中的运算单元相连。
第二方面,本发明实施例还提供了一种缓存方法,应用于第一方面所述的缓存系统中,包括:
访问内部集成的cmem获取输入数据;
对所述输入数据进行处理获得处理完成的数据;
将所述处理完成的数据通过所述cmem输出至内存单元。
第三方面,本发明实施例还提供了一种缓存装置,应用于中央处理器CPU芯片,包括:
数据获取模块,用于访问内部集成的cmem获取输入数据;
数据处理模块,用于对所述输入数据进行处理获得处理完成的数据;
数据输出模块,用于将所述处理完成的数据通过所述cmem输出至内存单元。
本发明实施例中CPU芯片无需访问内存单元获取数据,因此能够避免刷新、同步内存单元的操作,同时避免产生访问延时等待和抖动现象,节省数据同步、拷贝以及刷新的时间开销,从而提高整体系统的处理效率和运行效率。
附图说明
图1是本发明实施例一提供的一种缓存系统的结构示意图;
图2a是本发明实施例二提供的一种缓存方法的流程图;
图2b是本发明实施例二提供的一种处理流程的示意图;
图3是本发明实施例三提供的一种缓存装置的示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
图1是本发明实施例一提供的一种缓存系统的结构示意图,该系统包括,中央处理器CPU芯片110和核心存储介质cmem120,其中,所述cmem120集成在所述CPU芯片110内部,并与所述CPU芯片110中的运算单元130相连。
其中,cmem120的容量为16KB,在32位程序中机器字长只有4B,而且在同一数据处理过程中的不同处理阶段cmem120空间能够被复用,因此cmem120的16KB的容量能够满足一般功能的程序的需要。将cmem120与运算单元130相连能够减少cmem120与运算单元130之间复杂的外部传输路径,在数据处理过程中CPU芯片110均在cmem120空间范围内进行读取和写入数据。
本发明实施例中的cmem具备访问速度快的特点,最快可以在1个时钟周期内返回所需数据,其访问速度比内存单元快很多倍,而且使用CPU芯片统一编址可以直接访问cmem获取所需数据。在CPU芯片访问cmem的过程中,不需借助TLB(Translation LookasideBuffer,转换检测缓冲区)进行实际物理地址和程序虚拟地址之间的转换,所以不必消耗CPU芯片太多时钟周期进行等待数据的读取和写入,使得CPU芯片更多的处理器资源用于计算,能够避免CPU芯片直接访问内存,从而提升CPU芯片存取数据的速度,消除访问延时和抖动现象,大大提升系统的处理效率和运行效率。
进一步的,所述系统还包括,独立内存单元140和直接内存访问DMA控制器150,其中,所述内存单元140通过总线160与所述CPU芯片110相连接,所述DMA控制器150与所述cmem120相连接。
其中,内存单元140作为独立的存储器件,与CPU芯片110通过总线160相连接,DMA控制器150集成在CPU芯片110内部,并与cmem120相连接,采用DMA方式传输数据。在处理流程开始时内存单元140获取输入数据,DMA控制器150采用DMA方式将输入数据发送到cmem120,具体是:DMA控制器将要访问的数据的存储地址发送给内存控制器,内存控制器再把相应的数据通过总线160传输到cmem120,其中,内存控制器可以集成在CPU芯片110内部并与DMA控制器150相连。CPU芯片110对输入数据进行处理获得处理完成的数据后,DMA控制器150采用DMA方式将处理完成的数据发送到内存单元140。因此,在数据处理过程中CPU芯片110均在cmem120空间范围内进行读取和写入数据,避免与内存单元140产生频繁交互访问。
实施例二
图2a是本发明实施例二提供的一种缓存方法的流程图,图2b是本发明实施例二提供的一种处理流程的示意图,本实施例可适用于CPU芯片通过缓存单元读取数据的情况,该方法可以由缓存装置来执行,该装置可以由软件和/或硬件的方式来实现,并一般可集成在缓存系统中,该方法包括如下操作:
S210、访问内部集成的cmem获取输入数据。
其中,输入数据为内存单元接收到的,需要CPU芯片进行处理的数据,例如待处理报文数据等。具体的,CPU芯片在处理数据的过程中,不通过直接访问内存单元来获取输入数据,而是通过方位内部集成的cmem获取输入数据。这种操作能够避免CPU芯片与内存单元140产生频繁交互访问,从而提升CPU芯片的数据处理效率。
在本发明的一个可选的实施例中,所述输入数据为直接内存访问DMA控制器从所述内存单元中读取,并发送至所述cmem的。
其中,DMA控制器通过DMA方式对内存单元以及cmem中的数据进行发送处理。DMA方式是一种完全由硬件执行外部接口I/O操作单元交换的工作方式。在这种方式中,DMA控制器从CPU芯片完全接管对总线的控制,数据交换不经过CPU芯片。DMA控制器工作时,由DMA控制器向内存单元发出地址和控制信号,进行地址修改,对传送字的个数计数,并且以中断方式向CPU芯片报告数据传送操作的结束。
具体的,在处理流程开始时,输入数据是由内存单元通过I/O操作单元获取的。在内存单元获取到输入数据后,DMA控制器通过DMA方式将输入数据从内存单元发送至cmem。
在本发明的一个可选的实施例中,所述访问内部集成的cmem获取输入数据,包括:采用预设规则将所述cmem空间的地址范围进行划分,形成第一范围和第二范围,其中,所述第一范围对应所述cmem空间的地址范围作为程序栈空间,用于存储局部变量及函数返回地址;所述第二范围对应所述cmem空间的地址范围用于存储全局变量、静态全局变量以及静态局部变量数据。
其中,采用预设规则将所述cmem空间的地址范围进行划分具体是通过CPU芯片直接访问cmem的方式对cmem空间的地址范围进行划分。第一范围对应所述cmem空间的地址范围作为程序栈空间,由系统自动分配,无需干预,并且程序栈空间的大小是固定的,主要用于存储输入数据或者CPU芯片处理完成的数据中的局部变量及函数返回地址等信息;第二范围对应所述cmem空间的地址范围作为静态变量空间,主要用于存储输入数据或者CPU芯片处理完成的数据中全局变量、静态全局变量以及静态局部变量等数据。
需要说明的是,软件在程序中涉及到的全局变量需要使用特定宏cmem_var加以限定,相应的编译器也需要处理此宏,在预编译时将此宏限定的全局变量和静态变量地址指定到第二范围对应cmem空间的地址范围,即静态变量空间,而非内存虚拟地址空间范围。
S220、对所述输入数据进行处理获得处理完成的数据。
在本发明实施例中,CPU处理输入数据的过程产生的变量资源也相应的存储到程序栈空间或者静态变量空间,如此,CPU芯片不会因为资源受限而阻塞处理流程,从而提高CPU芯片的处理效率。
S230、将所述处理完成的数据通过所述cmem输出至内存单元。
在本发明实施例中,当CPU芯片对输入的数据处理完成后,不会直接将处理完成的数据发送至内存单元,而是将处理完成的数据写入到cmem,然后DMA控制器通过DMA方式将处理完成的数据从cmem发送至内存单元。需要说明的是,DMA控制器发送数据的过程无需CPU芯片进行干预。
如图2b所示,程序只需在处理流程启动时从外部接收输入数据,并通过DMA控制器将输入数据加载到cmem。此后的处理流程中CPU芯片只需要从cmem读取输入数据并处理,处理完成后将处理完成的数据写入到cmem,待处理流程完成后需要发送时再统一将处理完成的数据发送至内存单元。至此一个完整的处理流程处理完成,再依次开始下一个处理流程过程的处理。
在本发明的一个可选的实施例中,所述将所述处理完成的数据通过所述cmem输出至内存单元,包括:将所述处理完成的数据写入所述cmem;其中,所述cmem中存储的所述处理完成的数据由所述DMA控制器发送至所述内存单元,并通过所述内存单元发送至外部接口I/O操作单元。
具体的,当整个流程处理完成后,生成的处理完成的数据统一由DMA控制器发送至内存单元,内存单元再将处理完成的数据发送至外部接口I/O操作单元。通过DMA控制器发送数据期间,DMA控制器可以独立传输,所以能够从整体上减少CPU芯片资源的额外开销,使其可以将更多资源用于计算等关键操作中。
本发明实施例通过访问内部集成的cmem获取输入数据;对所述输入数据进行处理获得处理完成的数据;将所述处理完成的数据通过所述cmem输出至内存单元,解决了现有技术中分级缓存方式因抖动现象引起的CPU芯片处理效率降低的问题,能够避免刷新、同步内存单元的操作,同时避免产生访问延时等待和抖动现象,节省数据同步、拷贝以及刷新的时间开销,从而提高整体系统的处理效率和运行效率。
实施例三
图3是本发明实施例三提供的一种缓存装置的示意图,可执行本发明任意实施例所提供的缓存方法,具备执行方法相应的功能模块和有益效果,本实施例可适用于CPU芯片通过缓存单元读取数据的情况。
所述装置包括:
数据获取模块310,用于访问内部集成的cmem获取输入数据。
数据处理模块320,用于对所述输入数据进行处理获得处理完成的数据。
数据输出模块330,用于将所述处理完成的数据通过所述cmem输出至内存单元。
本发明实施例通过访问内部集成的cmem获取输入数据;对所述输入数据进行处理获得处理完成的数据;将所述处理完成的数据通过所述cmem输出至内存单元,解决了现有技术中分级缓存方式因抖动现象引起的CPU芯片处理效率降低的问题,能够避免刷新、同步内存单元的操作,同时避免产生访问延时等待和抖动现象,节省数据同步、拷贝以及刷新的时间开销,从而提高整体系统的处理效率和运行效率。
进一步的,所述输入数据为直接内存访问DMA控制器从所述内存单元中读取,并发送至所述cmem的。
进一步的,数据获取模块310用于:
采用预设规则将所述cmem空间的地址范围进行划分,形成第一范围和第二范围,其中,
所述第一范围对应所述cmem空间的地址范围作为程序栈空间,用于存储局部变量及函数返回地址;
所述第二范围对应所述cmem空间的地址范围用于存储全局变量、静态全局变量以及静态局部变量数据。
进一步的,数据输出模块330用于:
将所述处理完成的数据写入所述cmem;其中,
所述cmem中存储的所述处理完成的数据由所述DMA控制器发送至所述内存单元,并通过所述内存单元发送至外部接口I/O操作单元。
上述缓存装置可执行本发明任意实施例所提供的缓存方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意实施例提供的缓存方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种缓存系统,其特征在于,包括,中央处理器CPU芯片和核心存储介质cmem,其中,所述cmem集成在所述CPU芯片内部,并与所述CPU芯片中的运算单元相连。
2.根据权利要求1所述的系统,其特征在于,还包括:独立内存单元和直接内存访问DMA控制器,其中,所述内存单元通过总线与所述CPU芯片相连接,所述DMA控制器与所述cmem相连接。
3.一种缓存方法,应用于权利要求1或2任一所述的缓存系统中,其特征在于,包括:
访问内部集成的cmem获取输入数据;
对所述输入数据进行处理获得处理完成的数据;
将所述处理完成的数据通过所述cmem输出至内存单元。
4.根据权利要求3所述的方法,其特征在于,所述输入数据为直接内存访问DMA控制器从所述内存单元中读取,并发送至所述cmem的。
5.根据权利要求3所述的方法,其特征在于,所述将所述处理完成的数据通过所述cmem输出至内存单元,包括:
将所述处理完成的数据写入所述cmem;其中,
所述cmem中存储的所述处理完成的数据由所述DMA控制器发送至所述内存单元,并通过所述内存单元发送至外部接口I/O操作单元。
6.根据权利要求3所述的方法,其特征在于,所述访问内部集成的cmem获取输入数据,包括:
采用预设规则将所述cmem空间的地址范围进行划分,形成第一范围和第二范围,其中,
所述第一范围对应所述cmem空间的地址范围作为程序栈空间,用于存储局部变量及函数返回地址;
所述第二范围对应所述cmem空间的地址范围用于存储全局变量、静态全局变量以及静态局部变量数据。
7.一种缓存装置,应用于中央处理器CPU芯片,其特征在于,包括:
数据获取模块,用于访问内部集成的cmem获取输入数据;
数据处理模块,用于对所述输入数据进行处理获得处理完成的数据;
数据输出模块,用于将所述处理完成的数据通过所述cmem输出至内存单元。
8.根据权利要求7所述的装置,其特征在于,所述输入数据为直接内存访问DMA控制器从所述内存单元中读取,并发送至所述cmem的。
9.根据权利要求7所述的装置,其特征在于,所述数据输出模块用于:
将所述处理完成的数据写入所述cmem;其中,
所述cmem中存储的所述处理完成的数据由所述DMA控制器发送至所述内存单元,并通过所述内存单元发送至外部接口I/O操作单元。
10.根据权利要求7所述的装置,其特征在于,所述数据获取模块用于:
采用预设规则将所述cmem空间的地址范围进行划分,形成第一范围和第二范围,其中,
所述第一范围对应所述cmem空间的地址范围作为程序栈空间,用于存储局部变量及函数返回地址;
所述第二范围对应所述cmem空间的地址范围用于存储全局变量、静态全局变量以及静态局部变量数据。
CN201711090356.9A 2017-11-08 2017-11-08 一种缓存系统、方法及装置 Pending CN107844435A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711090356.9A CN107844435A (zh) 2017-11-08 2017-11-08 一种缓存系统、方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711090356.9A CN107844435A (zh) 2017-11-08 2017-11-08 一种缓存系统、方法及装置

Publications (1)

Publication Number Publication Date
CN107844435A true CN107844435A (zh) 2018-03-27

Family

ID=61682410

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711090356.9A Pending CN107844435A (zh) 2017-11-08 2017-11-08 一种缓存系统、方法及装置

Country Status (1)

Country Link
CN (1) CN107844435A (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050289254A1 (en) * 2004-06-28 2005-12-29 Chih-Feng Chien Dynamic buffer allocation method
CN1851678A (zh) * 2006-06-08 2006-10-25 杭州华为三康技术有限公司 一种在内存和数字信号处理器之间传送数据的方法
CN101034383A (zh) * 2007-04-24 2007-09-12 北京中星微电子有限公司 一种实现软/硬件复用的dma控制器和传输方法
US7437517B2 (en) * 2005-01-11 2008-10-14 International Business Machines Corporation Methods and arrangements to manage on-chip memory to reduce memory latency
CN101446931A (zh) * 2008-12-03 2009-06-03 中国科学院计算技术研究所 一种实现输入输出数据一致性的系统及方法
CN101452429A (zh) * 2008-11-19 2009-06-10 北京红旗胜利科技发展有限责任公司 一种cpu及一种cpu内部与外部数据传输的方法
CN102609378A (zh) * 2012-01-18 2012-07-25 中国科学院计算技术研究所 一种消息式内存访问装置及其访问方法
US9329783B2 (en) * 2013-10-29 2016-05-03 Huawei Technologies Co., Ltd. Data processing system and data processing method
CN105718390A (zh) * 2014-12-18 2016-06-29 英特尔公司 共享存储器链路中的低功率进入
CN105740164A (zh) * 2014-12-10 2016-07-06 阿里巴巴集团控股有限公司 支持缓存一致性的多核处理器、读写方法、装置及设备
CN105786735A (zh) * 2016-02-19 2016-07-20 大唐微电子技术有限公司 一种直接内存存取dma控制器及数据访问方法
CN106557442A (zh) * 2015-09-28 2017-04-05 北京兆易创新科技股份有限公司 一种芯片系统
US9798492B2 (en) * 2014-04-15 2017-10-24 SK Hynix Inc. Semiconductor device including a plurality of function blocks

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050289254A1 (en) * 2004-06-28 2005-12-29 Chih-Feng Chien Dynamic buffer allocation method
US7437517B2 (en) * 2005-01-11 2008-10-14 International Business Machines Corporation Methods and arrangements to manage on-chip memory to reduce memory latency
CN1851678A (zh) * 2006-06-08 2006-10-25 杭州华为三康技术有限公司 一种在内存和数字信号处理器之间传送数据的方法
CN101034383A (zh) * 2007-04-24 2007-09-12 北京中星微电子有限公司 一种实现软/硬件复用的dma控制器和传输方法
CN101452429A (zh) * 2008-11-19 2009-06-10 北京红旗胜利科技发展有限责任公司 一种cpu及一种cpu内部与外部数据传输的方法
CN101446931A (zh) * 2008-12-03 2009-06-03 中国科学院计算技术研究所 一种实现输入输出数据一致性的系统及方法
CN102609378A (zh) * 2012-01-18 2012-07-25 中国科学院计算技术研究所 一种消息式内存访问装置及其访问方法
US9329783B2 (en) * 2013-10-29 2016-05-03 Huawei Technologies Co., Ltd. Data processing system and data processing method
US9798492B2 (en) * 2014-04-15 2017-10-24 SK Hynix Inc. Semiconductor device including a plurality of function blocks
CN105740164A (zh) * 2014-12-10 2016-07-06 阿里巴巴集团控股有限公司 支持缓存一致性的多核处理器、读写方法、装置及设备
CN105718390A (zh) * 2014-12-18 2016-06-29 英特尔公司 共享存储器链路中的低功率进入
CN106557442A (zh) * 2015-09-28 2017-04-05 北京兆易创新科技股份有限公司 一种芯片系统
CN105786735A (zh) * 2016-02-19 2016-07-20 大唐微电子技术有限公司 一种直接内存存取dma控制器及数据访问方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佚名: "cpu的基本结构及其工作原理", 《HTTP://WWW.ELECFANS.COM/BAIKE/ZHUJIPEIJIAN/CPU/20170526519542.HTML》 *

Similar Documents

Publication Publication Date Title
CN107301455B (zh) 用于卷积神经网络的混合立方体存储系统及加速计算方法
WO2020001459A1 (zh) 数据处理方法、远程直接访存网卡和设备
JP4322259B2 (ja) マルチプロセッサシステムにおけるローカルメモリへのデータアクセスを同期化する方法および装置
US6526462B1 (en) Programmable multi-tasking memory management system
WO2023284169A1 (zh) 从axi总线到opb总线的数据写入方法及读取方法
CN104699631A (zh) Gpdsp中多层次协同与共享的存储装置和访存方法
CN103714026B (zh) 一种支持原址数据交换的存储器访问方法及装置
KR20120123127A (ko) 이종 플랫폼에서 포인터를 공유시키는 방법 및 장치
CN101495961A (zh) 用于多个软件程序的瓦片式高速缓存器
WO2018205117A1 (zh) 一种多核系统内存访问方法、相关装置、系统及存储介质
CN102567278A (zh) 一种片上多核数据传输方法和装置
US20240078112A1 (en) Techniques for decoupled access-execute near-memory processing
CN113672030B (zh) 数据传输速率发生器和相关装置及方法
CN115509959A (zh) 处理系统、控制方法、芯片及计算机可读存储介质
US11709796B2 (en) Data input/output operations during loop execution in a reconfigurable compute fabric
CN107250995B (zh) 存储器管理设备
US20240086324A1 (en) High bandwidth gather cache
WO2022068149A1 (zh) 数据加载和存储系统及方法
CN110737618B (zh) 内嵌处理器进行快速数据通信的方法、装置及存储介质
US7774513B2 (en) DMA circuit and computer system
CN114995882B (zh) 一种异构结构系统包处理的方法
Contini et al. Enabling Reconfigurable HPC through MPI-based Inter-FPGA Communication
CN107844435A (zh) 一种缓存系统、方法及装置
US7075546B2 (en) Intelligent wait methodology
Vieira et al. A compute cache system for signal processing applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180327