CN104461942B - 串流上下文的高速缓存系统 - Google Patents

串流上下文的高速缓存系统 Download PDF

Info

Publication number
CN104461942B
CN104461942B CN201410826076.XA CN201410826076A CN104461942B CN 104461942 B CN104461942 B CN 104461942B CN 201410826076 A CN201410826076 A CN 201410826076A CN 104461942 B CN104461942 B CN 104461942B
Authority
CN
China
Prior art keywords
stream context
cache
stream
context
address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410826076.XA
Other languages
English (en)
Other versions
CN104461942A (zh
Inventor
郭秀丽
赖瑾
惠志强
秦双双
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Via Technologies Inc
Original Assignee
Via Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Via Technologies Inc filed Critical Via Technologies Inc
Publication of CN104461942A publication Critical patent/CN104461942A/zh
Application granted granted Critical
Publication of CN104461942B publication Critical patent/CN104461942B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0862Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with prefetch
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0875Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with dedicated cache, e.g. instruction or stack
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/10Address translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/60Details of cache memory
    • G06F2212/6028Prefetching based on hints or prefetch instructions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

一种串流上下文(stream context)的高速缓存系统,其主要包含高速缓存(cache)及映射表(mapping table)。其中,高速缓存储存多个串流上下文,而映射表则储存串流上下文位于系统存储器中的相应地址。藉此,根据映射表的内容,如果串流上下文已事先读取并储存于高速缓存中,则主机(host)即可直接从高速缓存取得串流上下文,不需再从系统存储器来读取。

Description

串流上下文的高速缓存系统
本申请是以下发明专利申请的分案申请:
申请号:200910204024.8
申请日:2009年9月30日
发明名称:串流上下文的高速缓存系统
技术领域
本发明是有关一种通用串行总线(USB),特别是关于一种串流上下文(streamcontext)的高速缓存(cache)系统。
背景技术
通用串行总线(Universal Serial Bus,以下简称为USB)普遍使用于电子装置中,用以传送数据于主机(host)与外围装置(device)之间。USB版本1.0的数据传送速度为1.5兆位/秒(低速,low speed)及12兆位/秒(全速,full speed),USB版本2.0的数据传送速度为480兆位/秒(高速,high speed)。目前更推出USB版本3.0,其数据传送速度为4.8千兆位/秒(超速,super speed),细节可参考“Universal Serial Bus 3.0Specification”。
在USB系统中,主机和装置之间的数据传送是由主机控制器(host controller)来控制的,而主机控制器和主机之间的通信则规范于主机控制器接口(host controllerinterface,以下简称为HCI),例如“eXtensible Host Controller Interface forUniversal Serial Bus(xHCI)”。
在xHCI规范的USB系统中,数据的传送是使用传送请求区块(transfer requestblock,以下简称为TRB)的数据结构。由多个TRB构成的TRB环(TRB ring)或传送环(transfer ring),则用以传送数据于主机和USB装置之间。此外,xHCI还规范一种数据串流上下文(stream context,以下简称为“串流上下文”)的数据结构,其用以提供一指针(pointer)以指向数据串流当中的TRB环。换句话说,每一次读取TRB时,也必须传送串流上下文。
传统TRB读取会有重复读取的情形,其细节可参考本发明申请人的另一件申请案,题为“传送请求区块的高速缓存系统及方法”。鉴于此,每一次传送数据时,主机控制器都必须从系统存储器中读取所需的串流上下文,造成时间的延迟、浪费及功率的消耗,因而降低系统整体效能。因此,亟需提出一种新颖机制,用以减少读取所花费时间,而得以提高系统效能及减少功率消耗。
发明内容
鉴于上述发明背景中,传统USB系统的数据读取效能无法提升,因此本发明实施例的目的之一即在于提出一种串流上下文(stream context)的高速缓存(cache)系统,用以增进存取速度及减少功率消耗。
根据本发明实施例所揭露的串流上下文(stream context)的高速缓存系统,其使用高速缓存(cache)以储存多个串流上下文,并使用映射表(mapping table)以储存串流上下文位于系统存储器中的相应地址。每一地址还包含对应的一个有效位(valid bit),用以代表相应的串流上下文是否为有效。使用一转换表,其使用索引函数将串流上下文的地址转换为索引值,用以索引映射表所储存的相应地址,其中,索引值的位数目小于串流上下文地址的位数目。地址判断控制单元根据索引值以检视映射表的内容,以判断串流上下文是否已经储存于高速缓存。藉此,如果串流上下文已事先读取并储存于高速缓存中,则主机(host)即可直接从高速缓存取得串流上下文,不需再从系统存储器来读取。
本发明提供了一种串流上下文的高速缓存系统,包含:一高速缓存,用以储存多个串流上下文;及一映射表,用以储存该多个串流上下文位于一系统存储器中的相应地址;藉此,根据该映射表的内容,如果该串流上下文已事先读取并储存于该高速缓存中,则一读取控制单元即可直接从该高速缓存取得该串流上下文并置入一总线项目,不需再从该系统存储器来读取,如果该串流上下文未存在于该高速缓存中,则该读取控制单元将相应地址写至该映射表中,从该系统存储器中读取该串流上下文,并将该串流上下文写至该高速缓存及取出数据置入该总线项目。
本发明还提供了一种串流上下文的高速缓存系统,包含:一高速缓存,用以储存多个串流上下文;一映射表,用以储存该多个串流上下文位于一系统存储器中的相应地址,每一该地址还包含对应的一个有效位,用以代表相应的该串流上下文是否为有效;一转换表,其使用一索引函数,将该串流上下文的地址转换为一索引值,用以索引该映射表所储存的相应地址,其中,该索引值的位数目小于该串流上下文地址的位数目;及一地址判断控制单元,其根据该索引值以检视该映射表的内容,以判断该串流上下文是否已经储存于该高速缓存;藉此,如果该串流上下文已事先读取并储存于该高速缓存中,则一读取控制单元即可直接从该高速缓存取得该串流上下文并置入一总线项目,不需再从该系统存储器来读取,如果该串流上下文未存在于该高速缓存中,则该读取控制单元将相应地址写至该映射表中,从该系统存储器中读取该串流上下文,并将该串流上下文写至该高速缓存及取出数据置入该总线项目。
附图说明
图1显示本发明实施例的串流上下文的高速缓存系统。
图2显示本实施例的映射表的架构。
图3显示本实施例的上游串流写入(upstream write)的流程图。
图4显示本实施例的上游串流读取(upstream read)的流程图。
图5显示本实施例的MCU预取(pre-fetch)串流上下文的流程图。
图6显示本实施例的MCU无效(invalid)所有串流上下文的流程图。
图7显示本实施例的MCU选择性无效串流上下文的流程图。
[主要元件标号说明]
11 高速缓存 12 映射表
13 转换表 14 地址判断控制单元
15 写入控制单元 16 读取控制单元
17 MCU控制单元 18 仲裁器
19 向上控制器(up controller) 31-36 (图3)步骤
41-47 (图4)步骤 51-59 (图5)步骤
61-62 (图6)步骤 71-75 (图7)步骤
具体实施方式
以下实施例虽以USB版本3.0为例,然而本发明也可适用于3.0以上的版本。再者,本实施例所使用的主机控制器接口(HCI)为xHCI(eXtensible Host ControllerInterface for Universal Serial Bus),但不限定于此。此外,本说明书所述的串流上下文(stream context)也可泛指其它HCI规范的数据串流或类似数据结构。
图1显示本发明实施例的串流上下文的高速缓存(cache)系统,其可设于主机控制器(host controller)内或其它地方。串流上下文的高速缓存系统主要包含一高速缓存11,例如静态随机存取存储器(SRAM),用以储存目前尚未用到,但以后可能会用到的串流上下文。藉此,当串流上下文已事先读取并储存于高速缓存11中,则主机就不需再从系统存储器(未图示)来读取,而是直接从高速缓存11取得。因此,得以增进读取速度及减少功率消耗。在本实施例中,高速缓存11的大小为512字节(byte),总共可以储存32个串流上下文,其中每一个串流上下文的大小为16字节。
映射表12用以储存这些串流上下文位于系统存储器中的相应地址。图2显示本实施例的映射表12的架构,其总共可储存32笔(entry)地址数据。此外,每一地址还相应有1个有效位(valid bit)v,代表该串流上下文是否为有效。由于本实施例每一笔串流上下文的大小为16字节,因此位3及其以下位可以省略不予记录,因此每一笔地址数据仅需储存地址位[35:4]。在本实施例中,映射表12采2路组相联(2-way set association)架构,其分为二路(way):A路和B路,而每一路又包含16组(set)。
鉴于映射表12所储存的地址的位数目很大,于运算处理或地址比较时将会花费很多时间,因此,在本实施例中使用一转换表13,其利用一索引函数,例如HASH(杂凑、哈希)函数,将冗长的串流上下文地址转换为简短的索引值。虽然本实施例中使用HASH函数转换表以产生索引值,然而,在其它实施例中,也可使用HASH函数以外的其它转换函数。由于串流上下文地址的位[18:4]同于高速缓存11行地址的位[18:4],因此,在本实施例中,转换表13取串流上下文地址[18:4]进行HASH函数运算后,产生5位HASH输出,用以索引映射表13中的相应地址数据。其中,HASH输出位[4:1]作为映射表13的索引值;而HASH输出位[0]则用以选择映射表13当中的A路或B路,亦即,每一组(set)当中的一笔(entry)。
详而言之,地址判断控制(address check control)单元14执行地址的比较,以判断串流上下文是否已经储存于高速缓存11,又称为命中(HIT);反之,如果未储存于高速缓存11,则为未命中(MISS)。在本实施例中,当地址A和地址B都命中或者都未命中时,HASH输出位[0]设为“0”,亦即选择地址A。当仅有地址A命中时,HASH输出位[0]设为“0”;当仅有地址B命中时,HASH输出位[0]设为“1”。
图1所示的串流上下文的高速缓存系统中,主要执行三类操作:上游串流写入(upstream write)、上游串流读取(upstream read)及微控制单元(MCU)相关控制。在xHCI规范中,上游(upstream)是指往主机方向的数据流向。上述三类操作分别由以下单元控制:写入控制(stream context write control)单元15、读取控制(stream context readcontrol)单元16及MCU控制(stream context MCU control)单元17。上述的微控制单元(MCU)相关控制则又包含:MCU预取(pre-fetch)串流上下文、MCU无效(invalid)所有串流上下文及MCU选择性无效串流上下文。上述五种操作或者上述控制单元15/16/17是由仲裁器(arbitrator)18来调派控制。此外,本实施例还包含一向上控制器(up controller)19,用于控制和系统存储器间的数据读写,以及和高速缓存11间的数据传送。以下将就上述五种操作逐一说明其流程步骤。
图3显示本实施例的上游串流写入(upstream write)的流程图。当获得允许(grant)后(步骤31),即进行HASH转换(步骤32)以得到相应索引值。接着,于步骤33,根据HASH输出以判定串流上下文是否已存在于高速缓存11。如果未存在于高速缓存11(亦即,未命中),则将地址写至映射表12中(步骤34),将串流上下文写入高速缓存11(步骤35),并从总线项目(bus instance,BI)将串流上下文写至系统存储器中(步骤36)。在xHCI规范中,总线项目(BI)是指各种数据传送速率的相应总线频宽。例如,高速(high speed)总线项目(BI)代表480兆位/秒的频宽。如果经步骤33判断串流上下文已存在于高速缓存11(亦即,命中),则将串流上下文写入高速缓存11(步骤35)以更新其内容,并从总线项目(BI)将串流上下文写至系统存储器中(步骤36)。
图4显示本实施例的上游串流读取(upstream read)的流程图。当获得允许后(步骤41),即进行HASH转换(步骤42)以得到相应索引值。接着,于步骤43,根据HASH输出以判定串流上下文是否已存在于高速缓存11。如果未存在于高速缓存11(亦即,未命中),则将地址写至映射表12中(步骤44),从系统存储器读取串流上下文(步骤45),并将串流上下文写至高速缓存11及取出数据置入总线项目(BI)(步骤46)。如果经步骤43判断串流上下文已存在于高速缓存11(亦即,命中),则从高速缓存11直接取出串流上下文及置入总线项目(BI)(步骤47)。
图5显示本实施例的MCU预取(pre-fetch)串流上下文的流程图。当获得允许后(步骤51),即进行HASH转换(步骤52)以得到相应索引值。接着,于步骤53,根据HASH输出以判定串流上下文是否已存在于高速缓存11。如果未存在于高速缓存11(亦即,未命中),则将地址写至映射表12中(步骤54),从系统存储器读取串流上下文(步骤55),并将串流上下文写至高速缓存11(步骤56)。接着,从预取得到的串流上下文得到一离开队列指针(dequeuepointer)(步骤57),用以触发相关TRB的预取(步骤58)。关于TRB的预取可参考本发明申请人的另一件申请案,题为“传送请求区块的高速缓存系统及方法”。于xHCI规范中,离开队列指针(dequeue pointer)是指向即将接受主机控制器处理的TRB。如果经步骤43判断串流上下文已存在于高速缓存11(亦即,命中),则结束流程(步骤59)。
图6显示本实施例的MCU无效(invalid)所有串流上下文的流程图。当获得允许后(步骤61),即将映射表12中所有的数据予以无效,亦即,将所有的有效位(valid bit)变为“0”(步骤62)。
图7显示本实施例的MCU选择性无效串流上下文的流程图。当获得允许后(步骤71),即进行HASH转换(步骤72)以得到相应索引值。接着,于步骤73,根据HASH输出以判定串流上下文是否已存在于高速缓存11。如果已存在于高速缓存11(亦即,命中),则将映射表12中相应的数据予以无效,亦即,将相应的有效位(valid bit)变为“0”(步骤74)。如果未存在于高速缓存11(亦即,未命中),则结束流程(步骤75)。
以上所述仅为本发明的较佳实施例而已,并非用以限定本发明的权利要求范围;凡其它未脱离发明所揭示的精神下所完成的等效改变或修饰,均应包含在上述的权利要求范围内。

Claims (9)

1.一种串流上下文的高速缓存系统,该高速缓存系统用于一控制器,包含:
一高速缓存,用以储存多个串流上下文,所述多个串流上下文是从一系统存储器读取的;及
一映射表,用以储存该多个串流上下文位于该系统存储器中的相应地址;
一MCU控制单元,用于执行MCU预取串流上下文操作;
其中,根据该映射表的内容,判断该串流上下文是否已存在于该高速缓存中,如果未存在,则该MCU控制单元将相应地址写至该映射表中,从该系统存储器读取该串流上下文,将该串流上下文写至该高速缓存,自该串流上下文得到一离开队列指针,用以触发相关的传送请求区块的预取;及
如果存在,则结束操作。
2.根据权利要求1所述的串流上下文的高速缓存系统,其中上述映射表中,每一该地址还包含对应的一个有效位,用以代表相应的该串流上下文是否为有效。
3.根据权利要求1所述的串流上下文的高速缓存系统,其中上述的映射表采2路组相联架构,其分为二路,而每一路包含多个组。
4.根据权利要求1所述的串流上下文的高速缓存系统,还包含一转换表,其将该串流上下文的地址转换为一索引值,用以索引该映射表所储存的相应地址,其中上述的转换表使用一索引函数,用以将该串流上下文地址转换为该索引值,其中,该索引值的位数目小于该串流上下文地址的位数目。
5.根据权利要求4所述的串流上下文的高速缓存系统,还包含一地址判断控制单元,其根据该索引值以检视该映射表的内容,以判断该串流上下文是否已经储存于该高速缓存。
6.根据权利要求1所述的串流上下文的高速缓存系统,还包含一向上控制器,用于控制和该系统存储器间的数据读写,以及和该高速缓存间的数据传送。
7.根据权利要求1所述的串流上下文的高速缓存系统,其中上述MCU控制单元还执行MCU无效所有串流上下文操作,包含下列步骤:
将该映射表中所有的数据予以无效。
8.根据权利要求1所述的串流上下文的高速缓存系统,其中上述MCU控制单元还执行MCU选择性无效串流上下文操作,包含下列步骤:
判断该串流上下文是否已存在于该高速缓存;
如果存在,则将该映射表中相应的数据予以无效;及
如果未存在,则结束操作。
9.一种串流上下文的高速缓存系统,该高速缓存系统用于一控制器,包含:
一高速缓存,用以储存多个串流上下文,所述多个串流上下文是从一系统存储器读取的;
一映射表,用以储存该多个串流上下文位于该系统存储器中的相应地址,每一该地址还包含对应的一个有效位,用以代表相应的该串流上下文是否为有效;
一转换表,其使用一索引函数,将该串流上下文的地址转换为一索引值,用以索引该映射表所储存的相应地址,其中,该索引值的位数目小于该串流上下文地址的位数目;及
一地址判断控制单元,其根据该索引值以检视该映射表的内容,以判断该串流上下文是否已经存在于该高速缓存;
其中,如果该串流上下文未存在于该高速缓存中,则一MCU控制单元将相应地址写至该映射表中,从该系统存储器读取该串流上下文,将该串流上下文写至该高速缓存,自该串流上下文得到一离开队列指针,用以触发相关的传送请求区块的预取;及
如果存在,则结束操作。
CN201410826076.XA 2009-09-15 2009-09-30 串流上下文的高速缓存系统 Active CN104461942B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US24240009P 2009-09-15 2009-09-15
US61/242,400 2009-09-15
CN200910204024.8A CN101667158B (zh) 2009-09-15 2009-09-30 串流上下文的高速缓存系统

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN200910204024.8A Division CN101667158B (zh) 2009-09-15 2009-09-30 串流上下文的高速缓存系统

Publications (2)

Publication Number Publication Date
CN104461942A CN104461942A (zh) 2015-03-25
CN104461942B true CN104461942B (zh) 2018-06-08

Family

ID=41803780

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201410826076.XA Active CN104461942B (zh) 2009-09-15 2009-09-30 串流上下文的高速缓存系统
CN200910204024.8A Active CN101667158B (zh) 2009-09-15 2009-09-30 串流上下文的高速缓存系统

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN200910204024.8A Active CN101667158B (zh) 2009-09-15 2009-09-30 串流上下文的高速缓存系统

Country Status (3)

Country Link
US (1) US8645630B2 (zh)
CN (2) CN104461942B (zh)
TW (1) TWI450092B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104426797B (zh) * 2013-08-27 2018-03-13 华为技术有限公司 一种基于队列的通信方法及装置
CN103593606B (zh) * 2013-11-20 2016-06-01 北京经纬恒润科技有限公司 上下文信息管理方法及系统
CN111610931B (zh) * 2019-02-26 2023-05-02 慧荣科技股份有限公司 数据储存装置以及非挥发式存储器控制方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359722A (en) * 1990-07-23 1994-10-25 International Business Machines Corporation Method for shortening memory fetch time relative to memory store time and controlling recovery in a DRAM
US5509135A (en) * 1992-09-25 1996-04-16 Digital Equipment Corporation Multi-index multi-way set-associative cache
JP2916421B2 (ja) * 1996-09-09 1999-07-05 株式会社東芝 キャッシュフラッシュ装置およびデータ処理方法
JP2004102508A (ja) * 2002-09-06 2004-04-02 Renesas Technology Corp 半導体記憶装置
US8041878B2 (en) * 2003-03-19 2011-10-18 Samsung Electronics Co., Ltd. Flash file system
TWI238964B (en) * 2003-12-11 2005-09-01 Carry Computer Eng Co Ltd Card reader, and bridge controller and data transaction method thereof
CN1658592A (zh) * 2004-02-16 2005-08-24 威盛电子股份有限公司 串接网络交换芯片的方法及其相关装置
JP4520790B2 (ja) * 2004-07-30 2010-08-11 富士通株式会社 情報処理装置およびソフトウェアプリフェッチ制御方法
US7472227B2 (en) 2005-08-11 2008-12-30 International Business Machines Corporation Invalidating multiple address cache entries
KR100833178B1 (ko) * 2005-08-26 2008-05-28 삼성전자주식회사 캐시 메모리에 저장되는 블록개수를 제어할 수 있는 캐시메모리 시스템 및 동작 방법
US20070283095A1 (en) * 2006-06-06 2007-12-06 Alcor Micro, Corp. Method to access storage device through universal serial bus
US20090006757A1 (en) * 2007-06-29 2009-01-01 Abhishek Singhal Hierarchical cache tag architecture
CN101339490A (zh) * 2007-07-02 2009-01-07 佛山市顺德区顺达电脑厂有限公司 闪存的驱动装置及方法
TWI382426B (zh) * 2007-10-04 2013-01-11 Realtek Semiconductor Corp 預測快取記憶體之存取位置的方法及系統
CN101201800B (zh) * 2007-12-21 2010-06-09 福建星网锐捷网络有限公司 数据处理方法和装置
CN101382918B (zh) * 2008-07-26 2011-06-22 深圳市硅格半导体有限公司 一种基于数据交换区的NAND Flash闪存优化管理方法
US8327121B2 (en) * 2008-08-20 2012-12-04 Mips Technologies, Inc. Data cache receive flop bypass

Also Published As

Publication number Publication date
CN101667158A (zh) 2010-03-10
CN104461942A (zh) 2015-03-25
TW201109923A (en) 2011-03-16
US20110066795A1 (en) 2011-03-17
CN101667158B (zh) 2015-07-01
US8645630B2 (en) 2014-02-04
TWI450092B (zh) 2014-08-21

Similar Documents

Publication Publication Date Title
US7512721B1 (en) Method and apparatus for efficient determination of status from DMA lists
US10282132B2 (en) Methods and systems for processing PRP/SGL entries
US8583839B2 (en) Context processing for multiple active write commands in a media controller architecture
US20230254907A1 (en) Pipelined read-modify-write operations in cache memory
US9990138B2 (en) Out of order SGL read sorting in a mixed system with PRP read or system that supports only SGL reads
KR101531078B1 (ko) 데이터 처리 시스템 및 데이터 처리 방법
US10540096B2 (en) Method and design for dynamic management of descriptors for SGL operation
KR101511972B1 (ko) 계층적 캐싱 설계에서 캐시들 간 효율적 통신을 위한 방법 및 장치
TWI265411B (en) A flash file system
JP2003512670A (ja) 連結リストdma記述子アーキテクチャ
CN106484628A (zh) 基于事务的混合存储器模块
CN102681952A (zh) 将数据写入存储设备的方法与存储设备
CN102693198A (zh) Dma传输方法及系统
US8671245B2 (en) Using identification in cache memory for parallel requests
US20160292100A1 (en) Method for on-demand fetching of sgl pointers based buffer, traffic and command requirements
CN107977189A (zh) 低等待时间先进先出(fifo)缓存
TW200839514A (en) Memory management apparatus
CN106354664A (zh) 一种固态硬盘数据传输方法及装置
CN104461942B (zh) 串流上下文的高速缓存系统
TWI514143B (zh) 傳送請求區塊的快取記憶體系統及方法
CN107423235B (zh) 从非易失性存储器缓存数据
US8214597B2 (en) Cache tentative read buffer
US6944725B2 (en) Reciprocally adjustable dual queue mechanism
CN102736895B (zh) 一种实现寄存器文件间的数据传输方法及装置
CN102819511A (zh) 存储设备以及在该存储设备中创建链表的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant