CN108763106B - 一种基于交叉存储的Cache实现方法 - Google Patents

一种基于交叉存储的Cache实现方法 Download PDF

Info

Publication number
CN108763106B
CN108763106B CN201810551673.4A CN201810551673A CN108763106B CN 108763106 B CN108763106 B CN 108763106B CN 201810551673 A CN201810551673 A CN 201810551673A CN 108763106 B CN108763106 B CN 108763106B
Authority
CN
China
Prior art keywords
cache
memory
address
data
words
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810551673.4A
Other languages
English (en)
Other versions
CN108763106A (zh
Inventor
崔媛媛
李红桥
郭娜娜
谢琰瑾
杨博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Microelectronics Technology Institute
Original Assignee
Xian Microelectronics Technology Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Microelectronics Technology Institute filed Critical Xian Microelectronics Technology Institute
Priority to CN201810551673.4A priority Critical patent/CN108763106B/zh
Publication of CN108763106A publication Critical patent/CN108763106A/zh
Application granted granted Critical
Publication of CN108763106B publication Critical patent/CN108763106B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • G06F12/0871Allocation or management of cache space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0844Multiple simultaneous or quasi-simultaneous cache accessing
    • G06F12/0846Cache with multiple tag or data arrays being simultaneously accessible
    • G06F12/0851Cache with interleaved addressing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明公开了一种基于交叉存储的Cache实现方法,在满足
Figure DDA0001681431740000011
的条件下,一个周期填充一个Cache行的所有N个字,同时在命中判断周期使用同一地址读取所有M路对应的K个字,满足流水线对Cache访问的时序要求,N为Cache行的大小,K为流水线与Cache之间的数据位宽,并且N是K的整数倍,M为Cache的路数。本发明保证了可同时写入同一路一个Cache行的所有数据,又可同时读出不同路的相同地址的数据,充分利用了高性能片上总线的数据带宽,又满足了处理器流水线对Cache时序的要求。

Description

一种基于交叉存储的Cache实现方法
技术领域
本发明属于集成电路设计技术领域,具体涉及一种基于交叉存储的Cache实现方法。
背景技术
高性能处理器通常采用层次化的多级Cache来作为数据和指令的缓冲,以减小处理器和存储器之间的速率差异。其中,一级Cache通常位于处理器核内部,与流水线紧密配合,具有很小的访问延迟,基本上与处理器的执行速率保持一致,为了获得指令和数据的并行访问,通常采用哈佛结构,即分成独立的指令cache和数据Cache。一级Cache始终都是影响处理器性能的重要因素。嵌入式高性能处理器的主存通常是具有猝发访问模式的快速存储器,配以高带宽的片上总线,满足处理器的高性能处理需求。设计与系统相匹配的cache对于处理器整体性能的提升有很大的帮助。
在Cache的设计中,每个Cache行中数据有效性的表示有两种方式:第一种是每个Cache行中的每个字均用1bit的有效位进行表示,这种实现方式,主要应用于总线带宽不大,一般带宽只有1个字,而且流水线中每个周期需要的指令/数据量也只有1个字的系统中。每个字使用1bit的有效位可以实现一个Cache行不必同时更新,每个字更新到Cache中时只需将对应的有效位置位即可,由于Cache缺失时的位置是随机的,对于每个字使用1bit的有效位的表示方式,可以只从缺失字开始取数据,而不必要将同个Cache行中缺失字之前的字也取进Cache中,可有效降低因不必要的访存引起的性能损失,文献“32位嵌入式处理器的Cache设计”(西北工业大学硕士学位论文)采用了这种数据有效性的表示方式。第二种是每个Cache行统一使用1bit的有效位进行表示,这种实现方式,需要使每个Cache行的所有数据同时更新,Valid位有效表示的是整个Cache行的所有数据都是有效的,主要应用于总线带宽较大,可一次性填充整个Cache行,满足处理器每个周期对多个指令/数据的需求,文献“X-DSP一级数据Cache的设计与实现”采用的是第二种表示方法。
Cache中的存储器可以分为TAG存储器和DATA存储器,TAG存储器中存储物理地址的高位,DATA存储器存储相应物理地址的数据。在Cache的设计中,读DATA存储器的时机有两种:第一种是读TAG存储器和DATA存储器同周期进行,下个周期同时将各路的TAG和DATA读出,并进行命中判断,如果Cache命中,则将命中路的DATA返回给处理器,文献“DSP处理器中数据Cache的设计与验证”(西安电子科技大学硕士学位论文)采用了该种DATA存储器的读取时机。第二种是先读TAG存储器,各路的TAG读出后进行命中判断,如果Cache命中,则再读对应路的DATA存储器,只读取出处理器需要的DATA,可有效降低功耗,但与第一种读方式相比,性能也降低了,文献“基于流水化和滑动窗口结构的低功耗指令cache设计”中采用了第二种DATA存储器的访问时机。实际设计中,具体选择哪种访问方案,需要根据流水线的时序要求进行选择。
针对每个Cache行统一使用1bit的有效位进行表示,读TAG存储器和DATA存储器同周期进行,下个周期就要将DATA返回流水线中。
针对该问题,可以想到两种方案:第一种是Cache中的每路使用1个存储体,共有M路既用M个存储器,所有存储体的位宽为Cache行的大小,既N个字,该方案最大的缺点是功耗太大,在读周期,需要将所有M路对应行的N个字全部读出(共M*N个字),之后再选择处理器需要的相应K个字,如果K比N小得多,则极大地浪费了无用数据读出的功耗,而且该方案的存储器不利于实现,因为既定容量的位宽很大的存储器在选定的工艺库中不一定存在。第二种方案是将第一种方案中的每1个存储体再进行细分,例如可分为N个存储器,每个存储器的深度不变,位宽为1个字,或者如果N是K的整数倍,可分为N/K个存储器,每个存储器的深度不变,位宽为K个字,该方案最大的缺点是分成的小块(存储体)个数太多,由此带来的面积开销太大。
Cache存储器采用什么样的组织结构,如何保证一个周期能将同一路的某个Cache行同时更新,保证与有效位的一致性,又要保证同个周期取出所有路的对应低位地址的K个字的数据,并且功耗以及硬件面积开销相比上述两种方案更小,经检索相关文献和专利,尚未发现有解决该问题的方法。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于交叉存储的Cache实现方法,保证了可同时写入同一路一个Cache行的所有数据,又可同时读出不同路的相同地址的数据,充分利用了高性能片上总线的数据带宽,又满足了处理器流水线对Cache时序的要求。
本发明采用以下技术方案:
一种基于交叉存储的Cache实现方法,在满足
Figure BDA0001681431720000031
的条件下,一个周期填充一个Cache行的所有N个字,同时在命中判断周期使用同一地址读取所有M路对应的K个字,满足流水线对Cache访问的时序要求,N为Cache行的大小,K为流水线与Cache之间的数据位宽,并且N是K的整数倍,M为Cache的路数。
具体的,包括以下步骤:
S1、根据Cache的路数、Cache行的大小、流水线与Cache之间的数据带宽以及Cache的容量,确定DATA存储器与TAG存储器的组织结构;
S2、根据步骤S1确定的Cache的组织结构,设计Cache的更新与访问方式,保证一个周期能将一路的一个Cache行同时更新,且同一周期取出所有路相同地址的数据;
S3、通过同周期将所有路的对应相同地址的tagv取出完成对TAG存储器的读操作;
S4、基于Cache的组织结构、Cache存储器的读写访问方式,流水线在第一个周期发出访问所有M路的TAG存储器和所有M路的对应K个字DATA的相关信号和有效时序;
S5、在第二个周期,读出所有M路的对应地址的tagv,进行命中判断,如果命中,在该周期将命中路的所有K个字返回给处理器,完成处理器对Cache存储器的本次访问。
进一步的,DATA存储器的最小存储体的数据位宽为K个字,共有M个这样的存储体,存储体的深度根据Cache的容量确定,TAG存储器也包括M个小的存储体,每个存储体的深度是DATA最小存储块的K/N倍,每个存储体的宽度与Cache的容量、存储的是物理地址还是虚拟地址的高位相关,TAG每个存储块的每行中均增加一位有效位,用于表示对应DATA的整个Cache行的有效性。
进一步的,在Cache更新周期,将TAG存储器中对应路、对应行的物理地址高位标志tag和有效位valid简称tagv、以及DATA存储器中对应路、对应Cache行的N个字,同时进行更新。
更进一步的,对于DATA存储器的更新,更新Cache行的地址是更新tagv对应行地址addr再拼接上
Figure BDA0001681431720000041
位的地址构成的,M个不同存储体的写操作的地址高位都为addr,低
Figure BDA0001681431720000042
位不同,设更新的是第i路i=0,1,…,M-1,那么Cache行中的第0组K个字更新到第i个存储体的地址低
Figure BDA0001681431720000043
位为0的位置中,第1组K个字更新到第(i+1)mod M个存储体的地址低
Figure BDA0001681431720000044
位为1的位置中,依此类推,最后K个字,既第N/K-1组K个字更新到(i+N/K-1)mod M个存储地址为低
Figure BDA0001681431720000045
位为N/K-1的位置中。
进一步的,根据处理器发出的读地址addr,实现同周期读出所有路的对应地址的tagv;使用相同的读地址对DATA存储器进行读操作,同周期将所有路的对应地址的第j组K个字取出,j=0,1,…,N/K-1,根据读地址的低
Figure BDA0001681431720000051
位确定j。
进一步的,设流水线访问TAG存储器的地址为Addr_tag,访问DATA存储的地址为Addr_tag拼接上流水线访问地址的低
Figure BDA0001681431720000052
位。
进一步的,步骤S5中,命中判断具体为:如果第i路命中,i=0,1,…,M-1,在这个周期需要给流水线返回第i路的第j组K个字,j=0,1,…,N/K-1,根据读地址的低
Figure BDA0001681431720000053
位确定j。
与现有技术相比,本发明至少具有以下有益效果:
本发明一种基于交叉存储的Cache实现方法,在Cache的功耗以及硬件开销较小的情况下,通过采用交叉存储的Cache更新方式,保证了可同时写入同一路的一个Cache行的数据,又可同时读出不同路的相同地址的数据,充分利用了高性能片上总线的数据带宽,又满足了处理器流水线第一个周期读TAG和DATA存储器,第二个周期将命中路的对应数据返回流水线的要求,所取得的效果如下:
TAG存储器只采用M(M为Cache的路数)个位宽为tagv长度的存储体,DATA存储器只采用M个位宽为K(K为处理器与Cache之间的数据位宽)个字长度的存储体,相比DATA存储器采用M个位宽为一个Cache行大小的存储体方案,降低了无用数据的读功耗;相比DATA存储器每路采用N/K(N为一个Cache行的大小,即N个字)个位宽为K个字的存储体,共需要M*N/K个存储体的方案,面积更小。
Cache的DATA存储器采用交叉存储的方式,在M≥N/K的情况下,保证了一个Cache行的所有N/K组的K个字分别位于不同的存储体中,可实现同周期更新整个Cache行的时序需求;也保证了不同路的相同CACHE行中的第j组K个字,j=0,1,…,N/K-1,分别位于M个不同存储体的相同地址中,地址低
Figure BDA0001681431720000054
位均为j,可实现一个周期读出所有路的相同CACHE行中的第j组K个字的时序需求。
在对Cache进行更新时,同一个Cache对应的tagv和所有的N/K组的K个字的数据同时写入,保证了数据有效位的正确指示。
流水线对Cache访问的时序要求是第一个周期Cache根据流水线发出的访问地址对TAG存储器和DATA存储器并行访问,第二个周期将流水线发出的物理地址高位与从TAG存储器中读出的各路的tag比较,进行命中判断,如果命中,该周期将命中路的对应K个字返回给流水线,这要求该周期读出所有路的对应K个字,这对于采用交叉存储方式的DATA存储器是满足的。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为TAG存储器的组织结构示意图;
图2为DATA存储器的组织结构示意图;
图3为DATA存储器的交叉存储控制示意图。
具体实施方式
本发明提供了一种基于交叉存储的Cache实现方法,在满足
Figure BDA0001681431720000061
的条件下,其中,N为Cache行的大小,K为流水线与Cache之间的数据位宽,并且N是K的整数倍,M为Cache的路数),一个周期可填充一个Cache行的所有N个字,同时,在命中判断周期可使用同一地址读取所有M路对应K个字的实现方法,满足流水线对Cache访问的时序要求。
本发明一种基于交叉存储的Cache实现方法,包括以下步骤:
S1、根据设计中确定的Cache的路数、每个Cache行的大小、流水线与Cache之间的数据带宽以及Cache的容量,确定DATA存储器与TAG存储器的组织结构;
例如,Cache采用M路组相联、每个Cache行的大小是N个字、流水线与Cache之间的数据带宽是K个字。为了避免不必要的Cache跨行访问引起的性能损失,Cache行大小N是流水线与Cache间数据带宽K的整数倍。于是,确定的DATA存储器的最小存储体的数据位宽为K个字,共有M个这样的存储体,存储体的深度根据Cache的容量确定。
TAG存储器也包括M个小的存储体,每个存储体的深度是DATA最小存储块的K/N倍,每个存储体的宽度与Cache的容量、存储的是物理地址还是虚拟地址的高位等有关,并且TAG每个存储块的每行中均增加了一位有效位,用于表示对应DATA的整个Cache行的有效性。
S2、根据上述的Cache的组织结构,设计Cache的更新方式,保证一个周期能将一路的某个Cache行同时更新,保持与有效位的一致性,又要保证同个周期能取出所有路相同地址的数据;
在Cache更新周期,将TAG存储器中对应路、对应行的物理地址高位标志tag和有效位valid简称tagv、以及DATA存储器中对应路、对应Cache行的N个字,同时进行更新。TAG存储器的更新相对简单,只需要将拼接好的tagv写入对应路、对应行中即可。
对于DATA存储器的更新,更新Cache行的地址是更新tagv对应行地址addr再拼接上
Figure BDA0001681431720000071
位的地址构成的,M个不同存储体的写操作的地址高位都相同为addr,只有低
Figure BDA0001681431720000072
位不同,设更新的是第i路(i=0,1,…,M-1),那么Cache行中的第0组K个字更新到第i个存储体的地址低
Figure BDA0001681431720000073
位为0的位置中(该地址不是字节地址,而是以K个字对齐的地址),第1组K个字更新到第((i+1)mod M)个存储体的地址低
Figure BDA0001681431720000074
位为1的位置中,…,依此类推,最后K个字,既第N/K-1组K个字更新到((i+N/K-1)mod M)个存储地址为低
Figure BDA0001681431720000075
位为N/K-1的位置中。
按照上述方式进行更新,保证了不同路的相同CACHE行中的第j组K个字,j=0,1,…,N/K-1,分别位于M个不同的存储体中,并且位于相同的地址中,地址低
Figure BDA0001681431720000081
位均为j。
S3、对TAG存储器读操作的要求是同周期将所有路的对应相同地址的tagv取出;
由于TAG存储器由M个小的存储体组成,每个存储体对应1路,存储体的位宽为tagv的长度,所以根据处理器发出的读地址addr,可实现同周期读出所有路的对应地址的tagv;对DATA存储器读操作的要求是使用相同的读地址,同周期将所有路的对应地址的第j组K个字取出,j=0,1,…,N/K-1,j是根据读地址的低
Figure BDA0001681431720000082
位确定的,由于DATA存储器在更新的时候是按照上述的交叉存储的方式实现的,保证了不同路的相同CACHE行中的第j组K个字,j=0,1,…,N/K-1,分别位于M个不同的存储体中,并且位于相同的地址中,地址低
Figure BDA0001681431720000083
位均为j,可实现同周期读出所有路中的第j组K个字,j=0,1,…,N/K-1。
S4、基于上述Cache的组织结构、Cache存储器的读写访问方式,流水线在第一个周期发出访问所有M路的TAG存储器和所有M路的对应K个字DATA的相关信号和有效时序,不妨设流水线访问TAG存储器的地址为Addr_tag,则访问DATA存储的地址为Addr_tag拼接上流水线访问地址的低
Figure BDA0001681431720000084
位;
S5、在第二个周期,读出所有M路的对应地址的tagv,进行命中判断:如果第i路命中,i=0,1,…,M-1,则在这个周期需要给流水线返回第i路的第j组K个字,j=0,1,…,N/K-1,j是根据读地址的低
Figure BDA0001681431720000085
位确定的。
实际上,这个周期已经将所有路的第j组K个字读出了,只需要从中选取第i路的第j组K个字返回流水线即可。
基于交叉存储的Cache实现方式,保证了可同时写入同一路一个Cache行的数据,又可同时读出不同路相同地址的数据,充分利用了高性能片上总线的数据带宽,又可以完全满足流水线在第一个周期发出读TAG和DATA存储器的时序,第二个周期读出tagv进行命中判断以及将命中路的对应数据返回流水线的要求。并且TAG存储器只使用M个位宽为tagv长度的存储体(存储体容量与配置的Cache的容量相关),DATA存储器只使用M个位宽为K个字的存储体(存储体容量与配置的Cache的容量相关),功耗以及硬件开销更小。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中的描述和所示的本发明实施例的组件可以通过各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,图1中TAG存储器分为M个存储体,分别对应M路,存储体的每行存储的是物理地址的高位标志tag和表示对应Cache行是否有效的valid位。假设Cache的容量为CKB,每个字的大小为4个字节,则每个存储体的深度为210C/4NM=28C/NM行。
请参阅图2,图2中DATA存储器也分为M个存储体,每个存储体的位宽为K个字的长度,每个存储体的深度为
Figure BDA0001681431720000091
即每个存储体都可以分为
Figure BDA0001681431720000092
组,每组的深度为
Figure BDA0001681431720000093
请参阅图3,以一个具体的例子,说明DATA存储器的交叉存储控制,具体如下:
Cache的路数为M=6,一个Cache行N=8个字,流水线与Cache之间的数据位宽K=2个字,Cache的容量C=24KB,当对第0路,第0个Cache行进行更新时,Cache行的第0组的2个字对应图3中的“0路_0”写入第0个存储体的0地址,第1组的2个字对应图3中的“0路_1”写入第1个存储体的1地址,依次类推,第3组的2个字对应图3中的“0路_3”写入第3个存储体的3地址;
当对第1路,第0个Cache行进行更新时,Cache行的第0组的2个字对应图3中的“1路_0”写入第1个存储体的0地址,第1组的2个字对应图3中的“1路_1”写入第2个存储体的1地址,依次类推,第3组的2个字对应图3中的“1路_3”写入第0个存储体的3地址;
于是可以归纳为,当对第i路,i=0,1,2,…,5,第0个Cache行进行更新时,Cache行的第0组的2个字对应图3中的“i路_0”写入第i个存储体的0地址,第1组的2个字对应图3中的“i路_1”写入第(i+1)mod 6个存储体的1地址,依次类推,第3组的2个字对应图3中的“i路_3”写入第(i+3)mod6个存储体的3地址;对其他Cache行的更新操作是类似的。
对DATA存储器进行读操作时,根据读地址的低位,确定从不同存储体中取出的是对应哪一路的数据,如果读地址的低位为j,
Figure BDA0001681431720000101
说明流水线取得是某一路的Cache行中的第j组的2个字,从第(i+j)modM个存储体中取出的就是第i路,i=0,1,…,M-1,Cache行中第j组的2个字。
本发明已经应用于一款兼容SPARC V8结构的高性能SoC中,该SoC具有高带宽的片上总线,并且其支持的主存储器为具有猝发访问模式的快速存储器,可快速实现Cache行的同时更新,于是采用每个Cache行使用1位有效位的实现方式,充分利用了片上总线的高带宽优势;并且处理器中的流水线对时序的要求是第一个周期发送访问Cache的地址,第二个周期将命中的数据返回流水线中,一级的指令Cache和数据Cache通过分别采用交叉存储的Cache实现结构,满足了流水线对时序的要求。
本发明中的Cache实现方法对一级指令和数据Cache均适用,甚至是二级/三级Cache中,只要涉及需要保证一个周期能同时将一路的某个Cache行同时更新,又要保证同个周期能同时取出所有路对应地址的数据的情况,本发明均是有效的。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (4)

1.一种基于交叉存储的Cache实现方法,其特征在于,在满足
Figure FDA0002515865930000011
的条件下,一个周期填充一个Cache行的所有N个字,同时在命中判断周期使用同一地址读取所有M路对应的K个字,满足流水线对Cache访问的时序要求,N为Cache行的大小,K为流水线与Cache之间的数据位宽,并且N是K的整数倍,M为Cache的路数,包括以下步骤:
S1、根据Cache的路数、Cache行的大小、流水线与Cache之间的数据带宽以及Cache的容量,确定DATA存储器与TAG存储器的组织结构,DATA存储器的最小存储体的数据位宽为K个字,共有M个这样的存储体,存储体的深度根据Cache的容量确定,TAG存储器也包括M个小的存储体,每个存储体的深度是DATA最小存储块的K/N倍,每个存储体的宽度与Cache的容量、存储的是物理地址还是虚拟地址的高位相关,TAG每个存储块的每行中均增加一位有效位,用于表示对应DATA的整个Cache行的有效性;
S2、根据步骤S1确定的Cache的组织结构,设计Cache的更新与访问方式,保证一个周期能将一路的一个Cache行同时更新,且同一周期取出所有路相同地址的数据,在Cache更新周期,将TAG存储器中对应路、对应行的物理地址高位标志tag和有效位valid简称tagv、以及DATA存储器中对应路、对应Cache行的N个字,同时进行更新,对于DATA存储器的更新,更新Cache行的地址是更新tagv对应行地址addr再拼接上
Figure FDA0002515865930000012
位的地址构成的,M个不同存储体的写操作的地址高位都为addr,低
Figure FDA0002515865930000013
位不同,设更新的是第i路i=0,1,…,M-1,Cache行中的第0组K个字更新到第i个存储体的地址低
Figure FDA0002515865930000014
位为0的位置中,第1组K个字更新到第(i+1)mod M个存储体的地址低
Figure FDA0002515865930000015
位为1的位置中,最后K个字,第N/K-1组K个字更新到(i+N/K-1)mod M个存储地址为低
Figure FDA0002515865930000016
位为N/K-1的位置中;
S3、通过同周期将所有路的对应相同地址的tagv取出完成对TAG存储器的读操作;
S4、基于Cache的组织结构、Cache存储器的读写访问方式,流水线在第一个周期发出访问所有M路的TAG存储器和所有M路的对应K个字DATA的相关信号和有效时序;
S5、在第二个周期,读出所有M路的对应地址的tagv,进行命中判断,如果命中,在该周期将命中路的所有K个字返回给处理器,完成处理器对Cache存储器的本次访问。
2.根据权利要求1所述的一种基于交叉存储的Cache实现方法,其特征在于,步骤S3中,根据处理器发出的读地址addr,实现同周期读出所有路的对应地址的tagv;使用相同的读地址对DATA存储器进行读操作,同周期将所有路的对应地址的第j组K个字取出,j=0,1,…,N/K-1,根据读地址的低
Figure FDA0002515865930000021
位确定j。
3.根据权利要求1所述的一种基于交叉存储的Cache实现方法,其特征在于,步骤S4中,设流水线访问TAG存储器的地址为Addr_tag,访问DATA存储的地址为Addr_tag拼接上流水线访问地址的低
Figure FDA0002515865930000022
位。
4.根据权利要求1所述的一种基于交叉存储的Cache实现方法,其特征在于,步骤S5中,命中判断具体为:如果第i路命中,i=0,1,…,M-1,在这个周期需要给流水线返回第i路的第j组K个字,j=0,1,…,N/K-1,根据读地址的低
Figure FDA0002515865930000023
位确定j。
CN201810551673.4A 2018-05-31 2018-05-31 一种基于交叉存储的Cache实现方法 Active CN108763106B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810551673.4A CN108763106B (zh) 2018-05-31 2018-05-31 一种基于交叉存储的Cache实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810551673.4A CN108763106B (zh) 2018-05-31 2018-05-31 一种基于交叉存储的Cache实现方法

Publications (2)

Publication Number Publication Date
CN108763106A CN108763106A (zh) 2018-11-06
CN108763106B true CN108763106B (zh) 2020-07-24

Family

ID=64001315

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810551673.4A Active CN108763106B (zh) 2018-05-31 2018-05-31 一种基于交叉存储的Cache实现方法

Country Status (1)

Country Link
CN (1) CN108763106B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045957B (zh) * 2019-12-26 2023-10-27 江南大学 一种与处理器流水线伪同频的ICache实现方法
CN113778526B (zh) * 2021-11-12 2022-02-22 北京微核芯科技有限公司 一种基于Cache的流水线的执行方法及装置
WO2024087143A1 (en) * 2022-10-28 2024-05-02 Yangtze Advanced Memory Industrial Innovation Center Co., Ltd Memory device and addressing method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330636B1 (en) * 1999-01-29 2001-12-11 Enhanced Memory Systems, Inc. Double data rate synchronous dynamic random access memory device incorporating a static RAM cache per memory bank
CN101667451A (zh) * 2009-09-11 2010-03-10 西安电子科技大学 高速数据交换接口的数据缓存器及其数据缓存控制方法
CN107257960A (zh) * 2015-03-27 2017-10-17 英特尔公司 两级存储器全行写入

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6954822B2 (en) * 2002-08-02 2005-10-11 Intel Corporation Techniques to map cache data to memory arrays
US7558941B2 (en) * 2005-06-30 2009-07-07 Intel Corporation Automatic detection of micro-tile enabled memory

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330636B1 (en) * 1999-01-29 2001-12-11 Enhanced Memory Systems, Inc. Double data rate synchronous dynamic random access memory device incorporating a static RAM cache per memory bank
CN101667451A (zh) * 2009-09-11 2010-03-10 西安电子科技大学 高速数据交换接口的数据缓存器及其数据缓存控制方法
CN107257960A (zh) * 2015-03-27 2017-10-17 英特尔公司 两级存储器全行写入

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Cache中 Tag电路的设计;高沁伟等;《电气电子教学学报》;20051231;第27卷(第6期);第28-31页 *
Optical Cache Memory Peripheral Circuitry: Row and Column Address Selectors for Optical Static RAM Banks;T. Alexoudi 等;《Journal of Lightwave Technology》;IEEE;20131021;第31卷(第24期);第4098-4110页 *

Also Published As

Publication number Publication date
CN108763106A (zh) 2018-11-06

Similar Documents

Publication Publication Date Title
CN109582214B (zh) 数据访问方法以及计算机系统
US10025720B2 (en) Cache organization and method
CN110018971B (zh) 缓存替换技术
CN109952565B (zh) 内存访问技术
CN101111819B (zh) 用于页内程序计数器相对或绝对地址转移指令的转换后备缓冲器(tlb)访问抑制
CN103729306B (zh) 高速缓存块无效的方法和数据处理设备
CN108763106B (zh) 一种基于交叉存储的Cache实现方法
KR101559023B1 (ko) 메모리 페이지들의 일부에 저장된 메타데이터를 갖는 메모리
TWI451330B (zh) 快取記憶體系統以及快取資料取代之方法
US20120159080A1 (en) Neighbor cache directory
JP4920378B2 (ja) 情報処理装置およびデータ検索方法
CN104298622B (zh) 使用fifo的最近最少使用的高速缓存替代实现
CN104252425A (zh) 一种指令缓存的管理方法和处理器
WO2006133597A1 (en) Using transacted writes and caching mechanism to improve write performance in multi-level cell flash memoty
US10275358B2 (en) High-performance instruction cache system and method
CN103455281B (zh) 由单端口存储器块实现的两端口存储器
CN105005510B (zh) 应用于固态硬盘阻变存储器缓存的纠错保护架构及方法
US20130297877A1 (en) Managing buffer memory
US9009411B2 (en) Flexible control mechanism for store gathering in a write buffer
JP3929872B2 (ja) キャッシュメモリ、プロセッサ及びキャッシュ制御方法
US20160371189A1 (en) Cache memory and processor system
CN104424132B (zh) 高性能指令缓存系统和方法
US9496009B2 (en) Memory with bank-conflict-resolution (BCR) module including cache
CN112148639B (zh) 一种高效小容量高速缓冲存储器替换方法及系统
JP3997404B2 (ja) キャッシュメモリ及びその制御方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant