CN114610653A - 基于gpu内存的地址请求方法 - Google Patents

基于gpu内存的地址请求方法 Download PDF

Info

Publication number
CN114610653A
CN114610653A CN202210500355.1A CN202210500355A CN114610653A CN 114610653 A CN114610653 A CN 114610653A CN 202210500355 A CN202210500355 A CN 202210500355A CN 114610653 A CN114610653 A CN 114610653A
Authority
CN
China
Prior art keywords
address
retransmission
address request
retransmitted
level cache
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210500355.1A
Other languages
English (en)
Other versions
CN114610653B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Muxi Integrated Circuit Shanghai Co ltd
Original Assignee
Muxi Integrated Circuit Shanghai Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Muxi Integrated Circuit Shanghai Co ltd filed Critical Muxi Integrated Circuit Shanghai Co ltd
Priority to CN202210500355.1A priority Critical patent/CN114610653B/zh
Publication of CN114610653A publication Critical patent/CN114610653A/zh
Application granted granted Critical
Publication of CN114610653B publication Critical patent/CN114610653B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0811Multiuser, multiprocessor or multiprocessing cache systems with multilevel cache hierarchies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/10Address translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明涉及一种基于GPU内存的地址请求方法,包括步骤S1、获取地址请求指令,解析出目标虚拟地址;步骤S2、基于目标虚拟地址访问GPU的第一级缓存,若不存在对应的地址映射关系,则执行步骤S3、访问第二级缓存,若不存,则执行步骤S4和步骤S5;步骤S4、基于目标虚拟地址访问目标存储器,获取对应的地址映射关系,存储至第二级缓存;步骤S5、向第一级缓存返回重传指令,将地址请求指令作为待重传地址请求指令存储至第一级缓存中预设的重传缓存区中;步骤S6、当待重传地址请求指令进入重传缓存区的时间超过预设的等待时长时,将待重传地址请求指令重新发送给第二级缓存,获取对应的目标物理地址。本发明提高了GPU地址请求处理效率。

Description

基于GPU内存的地址请求方法
技术领域
本发明涉及GPU内存管理技术领域,尤其涉及一种基于GPU内存的地址请求方法。
背景技术
基于GPU进行数据请求时,通常先发送携带虚拟地址的地址请求,然后基于虚拟地址访问GPU的地址变换高速缓存(Translation Look-aside Buffer,简称TLB)获取对应的物理地址。当TLB中不存在对应的物理地址时,需要访问GPU的存储器(memory)或CPU的存储器中去获取对应的虚拟地址和物理地址的映射关系,再通过TLB将对应的物理地址返回给请求端。但是,访问GPU的存储器或CPU的存储器中去获取对应的虚拟地址和物理地址的映射关系耗费时间通常比较长,现有技术中通常将地址请求置于先入先出队列(FIFO)中,如果遇到某一地址请求需要访问GPU的存储器或CPU的存储器,则会造成先入先出队列的堵塞,影响后续地址访问请求的处理,GPU地址请求处理效率低。
发明内容
本发明目的在于,提供一种基于GPU内存的地址请求方法,通过设置重传机制,提高了GPU地址请求处理效率。
本发明提供了一种基于GPU内存的地址请求方法,包括:
步骤S1、获取地址请求指令,从所述地址请求指令中解析出目标虚拟地址;
步骤S2、基于所述目标虚拟地址访问GPU的第一级缓存,若不存在所述目标虚拟地址对应的地址映射关系,则执行步骤S3,所述地址映射关系用于存储虚拟地址和物理地址的映射关系;
步骤S3、基于所述目标虚拟地址访问GPU的第二级缓存,若不存在所述目标虚拟地址对应的地址映射关系,则同时执行步骤S4和步骤S5;
步骤S4、基于所述目标虚拟地址访问目标存储器,获取所述目标虚拟地址对应的地址映射关系,并存储至所述第二级缓存中,执行步骤S6;
步骤S5、向所述第一级缓存返回重传指令,将所述地址请求指令作为待重传地址请求指令存储至所述第一级缓存中预设的重传缓存区中,执行步骤S6;
步骤S6、当所述待重传地址请求指令进入所述重传缓存区的时间超过预设的等待时长时,将所述待重传地址请求指令重新发送给所述第二级缓存,获取对应的目标物理地址。
本发明与现有技术相比具有明显的优点和有益效果。借由上述技术方案,本发明提供的一种基于GPU内存的地址请求方法可达到相当的技术进步性及实用性,并具有产业上的广泛利用价值,其至少具有下列优点:
本发明通过设置地址请求指令重传机制,提高了GPU地址请求处理效率,进而提高了数据访问效率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本发明实施例提供的基于GPU内存的地址请求方法流程图。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于GPU内存的地址请求方法的具体实施方式及其功效,详细说明如后。
本发明提供了一种基于GPU内存的地址请求方法,如图1所示,包括:
步骤S1、获取地址请求指令,从所述地址请求指令中解析出目标虚拟地址;
步骤S2、基于所述目标虚拟地址访问GPU的第一级缓存,若不存在所述目标虚拟地址对应的地址映射关系,则执行步骤S3,所述地址映射关系用于存储虚拟地址和物理地址的映射关系;
需要说明的是,如果第一级缓存中存储有目标虚拟地址对应的地址映射关系,则直接将目标物理地址返回给发送地址请求指令的客户端即可,无需再执行后续步骤。
步骤S3、基于所述目标虚拟地址访问GPU的第二级缓存,若不存在所述目标虚拟地址对应的地址映射关系,则同时执行步骤S4和步骤S5;
需要说明的是,如果第二级缓存中存储有目标虚拟地址对应的地址映射关系,则将目标虚拟地址对应的地址映射关系存入第一级缓存中,再基于第一级缓存将目标物理地址返回给发送地址请求指令的客户端即可,无需再执行后续步骤。
第一级缓存和第二级缓存均为地址变换高速缓存(Translation Look-asideBuffer,简称TLB),第二级缓存的存储空间大于第一级缓存的存储空间,所述第二级缓存能够对接多个第一级缓存。
步骤S4、基于所述目标虚拟地址访问目标存储器,获取所述目标虚拟地址对应的地址映射关系,并存储至所述第二级缓存中,执行步骤S6;
需要说明的是,目标存储器可以为GPU存储器,也可以为CPU存储器,具体取决于地址请求指令对应的目标数据存储在GPU中,还是CPU中,可以理解的是,访问CPU的存储器获取目标虚拟地址对应的地址映射关系的时间要长于访问GPU的存储器获取目标虚拟地址对应的地址映射关系的时间。
步骤S5、向所述第一级缓存返回重传指令,将所述地址请求指令作为待重传地址请求指令存储至所述第一级缓存中预设的重传缓存区中,执行步骤S6;
步骤S6、当所述待重传地址请求指令进入所述重传缓存区的时间超过预设的等待时长时,将所述待重传地址请求指令重新发送给所述第二级缓存,获取对应的目标物理地址。
需要说明的是,作为优选的实施例,每一地址请求指令对应的预设时长大于等于基于该地址请求访问目标存储器获取映射关系所需的时间,因此,当所述地址请求指令进入所述重传缓存区的时间超过预设的等待时长时,第二级缓存中通常已经获取到了地址请求指令对应的地址映射关系,可以理解的是,地址请求访问目标存储器获取映射关系所需的时间为基于多次实验数据得到的预估时间。
所述步骤S6中,将所述地址请求指令重新发送给所述第二级缓存,将第二级缓存已获取的重传地址请求指令对应的地址映射关系存储至第一级缓存中,再基于第一级缓存将目标物理地址返回给发送地址请求指令的客户端。
作为一种实施例,所述步骤S6中,基于预设的重传计数器判断所述地址请求指令进入所述重传缓存区的时间是否超过预设的等待时长。具体地,所述重传计数器设置在第一级缓存中,所述重传计数器为循环计数器,位宽n=log2(T+1),T为预设等待时长最大值,计数范围为0至2n-1,当所述重传缓存区中存在待重传地址请求指令时,所述重传计数器根据时钟持续计数,当所述重传缓存区中不存在待重传地址请求指令时,所述重传计数器停止计数,当重传计数器数值达到2n-1后,重新从开始执行新一轮计数,计数器的初始状态设置为0,当所述重传缓存区中不存在待重传地址请求指令时,可以将重传计数器重置为0,也可以保留当前计数值,当重传缓存区中又存入待重传地址请求指令时,从所保留的当前计数值开始计数。通过上述设置,利用一个重传计数器就可以判断不同时刻存入所述重传缓存区的不同待重传地址请求指令进入所述重传缓存区的时间是否超过预设的等待时长。
作为一种实施例,所述步骤S5中,当将所述地址请求指令作为待重传地址请求指令存储至所述第一级缓存中预设的重传缓存区中时,还执行:
步骤S50、获取当前对应的重传计数器的数值m,若m+x>2n-1,则设置R=m+x-2n,否则,设置R= m+x,其中,x表示所述待重传地址请求指令对应的预设的等待时长,R为所述待重传地址请求指令对应的目标计数值。
所述步骤S6中,当计数器的值计数为R时,则判断所述地址请求指令进入所述重传缓存区的时间达到预设的等待时长。
以下通过两个具体实施方式来说明具体重传机制:
实施方式一、
所有地址请求指令对应的预设等待时长均相同,优选的,预设等待时长大于等于所有地址请求指令访问对应目标存存储器获取地址映射关系所需的最长时间。所述重传缓存区设置为重传FIFO,每一待重传地址请求指令依次存入所述重传FIFO中,所述步骤S6中,若所述待重传地址请求指令当前位于所述重传FIFO首位,且当前计数器的值大于等于R,则将所述地址请求指令重新发送给所述第二级缓存,获取对应的目标物理地址。需要说明的是,当前位于所述重传FIFO首位的待重传地址请求指令指的是,当前重传FIFO中最先进入重传FIFO中的待重传地址请求指令。
实施方式一结构简单,通过为所有地址请求指令设置相同预设等待时长,并通过重传FIFO重传待重传地址请求指令,结构简单,且不会造成重传FIFO堵塞。
实施方式二、
所述第一级缓存中还存储有等待时长配置表,用于存储地址访问类型和预设等待时长的对应关系,通过设置等待时长配置表可以更为精确地配置每一地址访问类型对应的等待时长,从而能够更加精确地确定待重传地址请求指令对应的重传时间。所述步骤S5中,在返回重传指令的时,同时返回所述地址请求指令对应的地址访问类型,基于所述等待时长配置表,获取所述地址请求指令对应的预设等待时长。
当为每一地址访问类型对应的等待时长时,若继续采用重传FIFO则有可能会造成堵塞,影响访问效率,因此,所述重传缓存区设置为重传buffer(缓冲器),当所述重传buffer中的任一待重传地址请求指令达到对应的预设的等待时长时,将该待重传地址请求指令重新发送给所述第二级缓存,获取对应的目标物理地址,需要说明的是,实施方式二中,无需严格按照待重传地址请求指令存入所述重传缓存区的顺序来重传待重传地址请求指令,在任意一个待重传地址请求指令达到对应的预设的等待时长时,即可进行重传,进一步提高了GPU地址请求处理效率。
若多个待重传地址请求指令同时达到对应的预设的等待时长,则按照待重传地址请求指令存入所述重传缓存区的顺序发送给所述第二级缓存。具体可以基于待重传地址请求指令存入所述重传缓存区的顺序设置对应的优先级,基于优先级来确定同时达到对应的预设的等待时长的多个待重传地址请求指令的重传顺序。
在一些应用场景中,由于整个寻址的路径很长,若有其他影响寻址的因素造成实际消耗的时间大于预估的地址请求访问目标存储器获取映射关系所需的时间,则可能出现仅一次重传获取不到目标物理地址的情况,这种情况下,可以再次发起重传,但是重传达到一定数量后,如果仍不能获取到目标物理地址,则可不再继续尝试重传,而向客户端返回请求失败指令,由客户端进行后续处理。作为一种实施例,若所述步骤S6中未获取到所述待重传地址请求指令对应的目标物理地址,则执行:
步骤S7、判断当前所述待重传地址请求指令对应的重传数量B是否达到预设的重传数量阈值,若达到,则返回请求失败指令,否则,执行步骤S8;
其中,重传数量B需要设置初始值,例如可以设置为0,重传数量阈值根据具体的应用需求和重传数量B的初始值来确定。
步骤S8、设置B=B+1,并将所述待重传地址请求指令重新存储至所述第一级缓存中预设的重传缓存区中,返回执行步骤S6。
本发明实施例通过设置地址请求指令重传机制,提高了GPU地址请求处理效率,进而提高了数据访问效率。
需要说明的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (10)

1.一种基于GPU内存的地址请求方法,其特征在于,包括:
步骤S1、获取地址请求指令,从所述地址请求指令中解析出目标虚拟地址;
步骤S2、基于所述目标虚拟地址访问GPU的第一级缓存,若不存在所述目标虚拟地址对应的地址映射关系,则执行步骤S3,所述地址映射关系用于存储虚拟地址和物理地址的映射关系;
步骤S3、基于所述目标虚拟地址访问GPU的第二级缓存,若不存在所述目标虚拟地址对应的地址映射关系,则同时执行步骤S4和步骤S5;
步骤S4、基于所述目标虚拟地址访问目标存储器,获取所述目标虚拟地址对应的地址映射关系,并存储至所述第二级缓存中,执行步骤S6;
步骤S5、向所述第一级缓存返回重传指令,将所述地址请求指令作为待重传地址请求指令存储至所述第一级缓存中预设的重传缓存区中,执行步骤S6;
步骤S6、当所述待重传地址请求指令进入所述重传缓存区的时间超过预设的等待时长时,将所述待重传地址请求指令重新发送给所述第二级缓存,获取对应的目标物理地址。
2.根据权利要求1所述的方法,其特征在于,
所述第一级缓存中设置有重传计数器,所述重传计数器为循环计数器,所述重传计数器的位宽n=log2(T+1),T为预设等待时长最大值,计数范围为0至2n-1,当所述重传缓存区中存在待重传地址请求指令时,所述重传计数器根据时钟持续计数,当所述重传缓存区中不存在待重传地址请求指令时,所述重传计数器停止计数;
所述步骤S6中,基于预设的重传计数器判断所述地址请求指令进入所述重传缓存区的时间是否超过预设的等待时长。
3.根据权利要求2所述的方法,其特征在于,
所述步骤S5中,当将所述地址请求指令作为待重传地址请求指令存储至所述第一级缓存中预设的重传缓存区中时,还执行:
步骤S50、获取当前对应的重传计数器的数值m,若m+x>2n-1,则设置R=m+x-2n,否则,设置R= m+x,其中,x表示所述待重传地址请求指令对应的预设的等待时长,R为所述待重传地址请求指令对应的目标计数值。
4.根据权利要求3所述的方法,其特征在于,
所述步骤S6中,当计数器的值计数为R时,则判断所述地址请求指令进入所述重传缓存区的时间达到预设的等待时长。
5.根据权利要求3所述的方法,其特征在于,
所有地址请求指令对应的预设等待时长均相同,所述重传缓存区设置为重传FIFO,每一待重传地址请求指令依次存入所述重传FIFO中,所述步骤S6中,若所述待重传地址请求指令当前位于所述重传FIFO首位,且当前计数器的值大于等于R,则将所述地址请求指令重新发送给所述第二级缓存,获取对应的目标物理地址。
6.根据权利要求3所述的方法,其特征在于,
所述第一级缓存中还存储有等待时长配置表,用于存储地址访问类型和预设等待时长的对应关系,所述步骤S5中,在返回重传指令的时,同时返回所述地址请求指令对应的地址访问类型,基于所述等待时长配置表,获取所述地址请求指令对应的预设等待时长。
7.根据权利要求6所述的方法,其特征在于,
所述重传缓存区设置为重传buffer,当所述重传buffer中的任一待重传地址请求指令达到对应的预设的等待时长时,将该待重传地址请求指令重新发送给所述第二级缓存,获取对应的目标物理地址。
8.根据权利要求7所述的方法,其特征在于,
若多个待重传地址请求指令同时达到对应的预设的等待时长,则按照待重传地址请求指令存入所述重传缓存区的顺序发送给所述第二级缓存。
9.根据权利要求1所述的方法,其特征在于,
每一地址请求指令对应的预设时长大于等于基于该地址请求访问目标存储器获取映射关系所需的时间。
10.根据权利要求1所述的方法,其特征在于,
若所述步骤S6中未获取到所述待重传地址请求指令对应的目标物理地址,则执行:
步骤S7、判断当前所述待重传地址请求指令对应的重传数量B是否达到预设的重传数量阈值,若达到,则返回请求失败指令,否则,执行步骤S8;
步骤S8、设置B=B+1,并将所述待重传地址请求指令重新存储至所述第一级缓存中预设的重传缓存区中,返回执行步骤S6。
CN202210500355.1A 2022-05-10 2022-05-10 基于gpu内存的地址请求方法 Active CN114610653B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210500355.1A CN114610653B (zh) 2022-05-10 2022-05-10 基于gpu内存的地址请求方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210500355.1A CN114610653B (zh) 2022-05-10 2022-05-10 基于gpu内存的地址请求方法

Publications (2)

Publication Number Publication Date
CN114610653A true CN114610653A (zh) 2022-06-10
CN114610653B CN114610653B (zh) 2022-08-05

Family

ID=81869200

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210500355.1A Active CN114610653B (zh) 2022-05-10 2022-05-10 基于gpu内存的地址请求方法

Country Status (1)

Country Link
CN (1) CN114610653B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129780A1 (en) * 2004-12-14 2006-06-15 Andrew Dunshea Memory pacing
CN102316440A (zh) * 2010-07-06 2012-01-11 中兴通讯股份有限公司 一种位置更新方法及装置
US20140184617A1 (en) * 2012-12-27 2014-07-03 Nvidia Corporation Mid-primitive graphics execution preemption
US20150199279A1 (en) * 2014-01-14 2015-07-16 Qualcomm Incorporated Method and system for method for tracking transactions associated with a system memory management unit of a portable computing device
US20150248244A1 (en) * 2014-03-03 2015-09-03 Dong-young Seo Method of operating a flash memory system using a migration operation
CN104991869A (zh) * 2015-07-31 2015-10-21 成都腾悦科技有限公司 一种微处理器存储管理方法
US20150378519A1 (en) * 2012-05-09 2015-12-31 Apple Inc. Device, Method, and Graphical User Interface for Displaying Additional Information in Response to a User Contact
CN105359115A (zh) * 2013-07-01 2016-02-24 惠普发展公司,有限责任合伙企业 包含虚拟地址空间和物理地址空间之间的映射的数据结构的查找
CN105975878A (zh) * 2016-05-30 2016-09-28 中国科学院信息工程研究所 基于Nand Flash闪存的安全存储方法及系统
CN107615239A (zh) * 2015-04-28 2018-01-19 谷歌有限责任公司 用于托管和发布软件包的基础架构
US20190096024A1 (en) * 2017-09-26 2019-03-28 Intel Corporation Area-efficient implementations of graphics instructions
CN111213131A (zh) * 2017-10-12 2020-05-29 德州仪器公司 高速缓存器中的零时延预提取
CN114116556A (zh) * 2021-10-29 2022-03-01 山东云海国创云计算装备产业创新中心有限公司 一种动态分配队列缓存的方法、系统、存储介质及设备
CN114328295A (zh) * 2021-11-23 2022-04-12 平头哥(上海)半导体技术有限公司 存储管理装置、处理器、相关装置和相关方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129780A1 (en) * 2004-12-14 2006-06-15 Andrew Dunshea Memory pacing
CN102316440A (zh) * 2010-07-06 2012-01-11 中兴通讯股份有限公司 一种位置更新方法及装置
US20150378519A1 (en) * 2012-05-09 2015-12-31 Apple Inc. Device, Method, and Graphical User Interface for Displaying Additional Information in Response to a User Contact
US20140184617A1 (en) * 2012-12-27 2014-07-03 Nvidia Corporation Mid-primitive graphics execution preemption
CN105359115A (zh) * 2013-07-01 2016-02-24 惠普发展公司,有限责任合伙企业 包含虚拟地址空间和物理地址空间之间的映射的数据结构的查找
US20150199279A1 (en) * 2014-01-14 2015-07-16 Qualcomm Incorporated Method and system for method for tracking transactions associated with a system memory management unit of a portable computing device
US20150248244A1 (en) * 2014-03-03 2015-09-03 Dong-young Seo Method of operating a flash memory system using a migration operation
CN107615239A (zh) * 2015-04-28 2018-01-19 谷歌有限责任公司 用于托管和发布软件包的基础架构
CN104991869A (zh) * 2015-07-31 2015-10-21 成都腾悦科技有限公司 一种微处理器存储管理方法
CN105975878A (zh) * 2016-05-30 2016-09-28 中国科学院信息工程研究所 基于Nand Flash闪存的安全存储方法及系统
US20190096024A1 (en) * 2017-09-26 2019-03-28 Intel Corporation Area-efficient implementations of graphics instructions
CN111213131A (zh) * 2017-10-12 2020-05-29 德州仪器公司 高速缓存器中的零时延预提取
CN114116556A (zh) * 2021-10-29 2022-03-01 山东云海国创云计算装备产业创新中心有限公司 一种动态分配队列缓存的方法、系统、存储介质及设备
CN114328295A (zh) * 2021-11-23 2022-04-12 平头哥(上海)半导体技术有限公司 存储管理装置、处理器、相关装置和相关方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
YEN-JEN CHANG ET AL: "Cache design for eliminating the address translation bottleneck and reducing the tag area cost", 《PROCEEDINGS. IEEE INTERNATIONAL CONFERENCE ON COMPUTER DESIGN: VLSI IN COMPUTERS AND PROCESSORS》 *
YUXI LIU ET AL: "Get Out of the Valley: Power-Efficient Address Mapping for GPUs", 《2018 ACM/IEEE 45TH ANNUAL INTERNATIONAL SYMPOSIUM ON COMPUTER ARCHITECTURE (ISCA)》 *
周秋和: "计算机多级存贮系统分析", 《江汉大学学报(人文社会科学版)》 *
樊进等: "一种变粒度的闪存地址映射方案", 《中国科学技术大学学报》 *

Also Published As

Publication number Publication date
CN114610653B (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
US7631135B2 (en) Processor access control device
CN110532205B (zh) 数据传输方法、装置、计算机设备和计算机可读存储介质
EP4137956A1 (en) On-chip cache device, on-chip cache read/write method, and computer readable medium
US20200117462A1 (en) Memory integrated circuit and pre-fetch method thereof
US11425057B2 (en) Packet processing
WO2016141735A1 (zh) 缓存数据的确定方法及装置
US11777873B1 (en) Method and apparatus for managing buffering of data packet of network card, terminal and storage medium
WO2021197128A1 (zh) 流量限速方法及装置
CN112261142B (zh) 一种rdma网络的数据重传方法、装置及fpga
US20080225858A1 (en) Data transferring apparatus and information processing system
CN114610653B (zh) 基于gpu内存的地址请求方法
CN104049955A (zh) Cache一致性多级流水线处理方法及装置
CN117251275B (zh) 多应用异步i/o请求的调度方法及系统、设备及介质
CN117707798A (zh) 多线程并发状态下的死锁消除方法、装置、设备及介质
US9311988B2 (en) Storage control system and method, and replacing system and method
CN110209350B (zh) 一种混合存储架构hpc系统中应用i/o请求的动态调度方法
US8566521B2 (en) Implementing cache offloading
US20200301732A1 (en) Information processing system and non-transitory computer readable medium storing program
CN112925472A (zh) 请求处理方法、装置、电子设备及计算机存储介质
US20200117460A1 (en) Memory integrated circuit and pre-fetch address determining method thereof
US20130346701A1 (en) Replacement method and apparatus for cache
CN107305532B (zh) 一种表项替换方法、装置及终端
CN113076070A (zh) 数据处理方法和装置
LU101773B1 (en) Method for improving sequential read performance of solid-state drive
WO2024066256A1 (zh) 存储器访问方法及系统、电子设备和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant