CN106909522A - Gpu写请求数据的延迟控制方法、装置以及云计算系统 - Google Patents

Gpu写请求数据的延迟控制方法、装置以及云计算系统 Download PDF

Info

Publication number
CN106909522A
CN106909522A CN201510968173.7A CN201510968173A CN106909522A CN 106909522 A CN106909522 A CN 106909522A CN 201510968173 A CN201510968173 A CN 201510968173A CN 106909522 A CN106909522 A CN 106909522A
Authority
CN
China
Prior art keywords
gpu
request
data
write
delay
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510968173.7A
Other languages
English (en)
Other versions
CN106909522B (zh
Inventor
张萍
陈云海
刘晓玲
铁兵
林立宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Telecom Corp Ltd
Original Assignee
China Telecom Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Telecom Corp Ltd filed Critical China Telecom Corp Ltd
Priority to CN201510968173.7A priority Critical patent/CN106909522B/zh
Publication of CN106909522A publication Critical patent/CN106909522A/zh
Application granted granted Critical
Publication of CN106909522B publication Critical patent/CN106909522B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/20Handling requests for interconnection or transfer for access to input/output bus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种GPU写请求数据的延迟控制方法、装置以及云计算系统,涉及云计算领域,其中的方法包括:接收到对于GPU内存的写请求数据;在主机侧对写请求数据进行缓存;计算GPU的延迟请求时间;当到达延迟发送时间点时,将在延迟请求时间内与GPU对应的写请求数据进行合并处理,并写入GPU的内存。本发明的GPU写请求数据的延迟控制方法、装置以及云计算系统,在主机侧对GPU内存写入请求进行基于策略的延迟控制,根据GPU的空闲情况采用可调的延迟控制,合并在延迟时间内的多个写存请求进行批量写入,可有效避免小数据频繁传输导致的IO资源大量消耗,能够提升IO性能,进一步发挥协同计算中GPU的计算能力。

Description

GPU写请求数据的延迟控制方法、装置以及云计算系统
技术领域
本发明涉及云计算技术领域,尤其涉及一种GPU写请求数据的延迟控制方法、装置以及云计算系统。
背景技术
云计算(Cloud Computing)是分布式计算、并行计算、效用计算、网络存储、虚拟化、负载均衡、热备份冗余等传统计算机和网络技术发展融合的产物。通过使计算分布在大量的分布式计算机上,而非本地计算机或远程服务器中,企业数据中心的运行将与互联网更相似,能够将资源切换到需要的应用上,根据需求访问计算机和存储系统。目前,GPU(Graphics Processing Unit,图形处理器)已经发展成为了并行度高、多线程、计算快捷及内存带宽大的高性能通用处理器。GPU中不同层次存储结构具有不同的资源容量和访问延迟等特性。在云计算系统中,GPU与CPU(Central Processing Unit,中央处理器)协同计算,数据频繁地通过PCI-E(PCI Express)总线从主机内存拷贝到GPU内存,大量小数据的写入中断请求消耗了大量的IO(InputOutput,输入、输出)资源,极大降低了系统的总体IO性能,导致GPU得不到足够的数据从而计算能力不能被最大化利用。
发明内容
有鉴于此,本发明要解决的一个技术问题是一种GPU写请求数据的延迟控制方法、装置以及云计算系统。
一种图形处理器GPU写请求数据的延迟控制方法,包括:接收到对于GPU内存的写请求数据;在主机侧对所述写请求数据进行缓存;计算所述GPU的延迟请求时间;当到达延迟发送时间点时,将在所述延迟请求时间内与所述GPU对应的写请求数据进行合并处理,并写入所述GPU的内存。
根据本发明的一个实施例,进一步的,所述接收到对于GPU内存的写请求数据、在主机侧对所述写请求数据进行缓存包括:设置多个请求队列;其中,所述多个请求队列与多个GPU为一一对应设置;接收到应用程序的写请求数据,确定此写请求数据请求写入的目的GPU,将此写请求数据放入与所述目的GPU相对应的请求队列中。
根据本发明的一个实施例,进一步的,所述计算所述GPU的延迟请求时间包括:获取各个GPU的资源使用数据,基于所述资源使用数据计算此GPU的空闲内存;其中,所述资源使用数据包括:GPU的流处理器的实时利用率、内存空闲率;计算GPU的延迟系数以及主机侧对GPU的延迟请求时间。
根据本发明的一个实施例,进一步的,计算GPU的空闲内存的公式为:
Mi=M*ui
其中,Mi为第i个GPU的空闲内存,M为第i个GPU的固定内存,ui为第i个GPU的内存空闲率。
根据本发明的一个实施例,进一步的,计算GPU的延迟系数的公式为:
计算主机侧对GPU的延迟请求时间的公式为:
Ti=di*T;
其中,di为第i个GPU的延迟系数,Ti为第i个GPU的延迟请求时间,Gi为第i个GPU的流处理器的实时利用率,T为常量,Gj为第j个GPU的流处理器的实时利用率,n为多个GPU的数量。
根据本发明的一个实施例,进一步的,所述当到达延迟发送时间点时、将在所述延迟请求时间内与所述GPU对应的写请求数据进行合并处理、并写入所述GPU的内存包括:根据各个GPU的延迟请求时间进行排序;当到达一个GPU的延迟发送时间点时,将与此GPU对应的请求队列中在所述延迟请求时间内的写请求数据进行合并,形成请求写入数据,并将所述请求写入数据写入此GPU内存。
根据本发明的一个实施例,进一步的,包括:判断所述请求写入数据是否大于其对应的GPU的空闲内存,如果是,则将所述请求写入数据超出其对应的GPU的空闲内存的数据保留在请求队列中。
一种GPU写请求数据的延迟控制装置,包括:数据缓存模块,用于接收到对于GPU内存的写请求数据,在主机侧对所述写请求数据进行缓存;延迟计算模块,用于计算所述GPU的延迟请求时间;数据合并模块,用于当到达延迟发送时间点时,将在所述延迟请求时间内与所述GPU对应的写请求数据进行合并处理,并写入所述GPU的内存。
根据本发明的一个实施例,进一步的,所述数据缓存模块,还用于设置多个请求队列;其中,所述多个请求队列与多个GPU为一一对应设置;接收到应用程序的写请求数据,确定此写请求数据请求写入的目的GPU,将此写请求数据放入与所述目的GPU相对应的请求队列中。
根据本发明的一个实施例,进一步的,所述延迟计算模块,用于获取各个GPU的资源使用数据,基于所述资源使用数据计算此GPU的空闲内存;其中,所述资源使用数据包括:GPU的流处理器的实时利用率、内存空闲率;计算GPU的延迟系数以及主机侧对GPU的延迟请求时间。
根据本发明的一个实施例,进一步的,所述延迟计算模块计算GPU的空闲内存的公式为:
Mi=M*ui
其中,Mi为第i个GPU的空闲内存,M为第i个GPU的固定内存,ui为第i个GPU的内存空闲率。
根据本发明的一个实施例,进一步的,所述延迟计算模块计算GPU的延迟系数的公式为:
所述延迟计算模块计算主机侧对GPU的延迟请求时间的公式为:
Ti=di*T;
其中,di为第i个GPU的延迟系数,Ti为第i个GPU的延迟请求时间,Gi为第i个GPU的流处理器的实时利用率,T为常量,Gj为第j个GPU的流处理器的实时利用率,n为所述多个GPU的数量。
根据本发明的一个实施例,进一步的,所述数据合并模块,用于根据各个GPU的延迟请求时间进行排序;当到达一个GPU的延迟发送时间点时,将与此GPU对应的请求队列中在所述延迟请求时间内的写请求数据进行合并,形成请求写入数据,并将所述请求写入数据写入此GPU内存。
根据本发明的一个实施例,进一步的,所述数据合并模块,用于判断所述请求写入数据是否大于其对应的GPU的空闲内存,如果是,则将所述请求写入数据超出其对应的GPU的空闲内存的数据保留在请求队列中。
一种云计算系统,包括如上所述的GPU写请求数据的延迟控制装置。
本发明的GPU写请求数据的延迟控制方法、装置以及云计算系统,在主机侧对GPU内存写入请求进行基于策略的延迟控制,根据GPU的空闲情况采用可调的延迟控制,合并在延迟时间内的多个写存请求进行批量写入,可有效避免小数据频繁传输导致的IO资源大量消耗。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为根据本发明的GPU写请求数据的延迟控制方法的一个实施例的流程示意图;
图2为根据本发明的GPU写请求数据的延迟控制方法的另一个实施例的流程示意图;
图3为在云计算系统中实施GPU写请求数据的延迟控制方法的示意图;
图4为根据本发明的GPU写请求数据的延迟控制装置的一个实施例的模块示意图。
具体实施方式
下面参照附图对本发明进行更全面的描述,其中说明本发明的示例性实施例。下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。下面结合各个图和实施例对本发明的技术方案进行多方面的描述。
图1为根据本发明的GPU写请求数据的延迟控制方法的一个实施例的流程示意图,如图1所示:
步骤101,接收到对于GPU内存的写请求数据。
步骤102,在主机侧对写请求数据进行缓存。
步骤103,计算GPU的延迟请求时间。
步骤104,当到达延迟发送时间点时,将在延迟请求时间内与GPU对应的写请求数据进行合并处理,并写入GPU的内存。
上述实施例中的GPU写请求数据的延迟控制方法,解决了GPU与CPU协同计算时大量小数据写入GPU内存,产生频繁的数据中断请求的问题。
在云计算系统中具有多个GPU,设置多个请求队列与多个GPU为一一对应。接收到应用程序的写请求数据,确定此写请求数据请求写入的目的GPU,将此写请求数据放入与目的GPU相对应的请求队列中。
获取系统中各个GPU的资源使用数据,基于资源使用数据计算此GPU的空闲内存。资源使用数据包括:GPU的流处理器的实时利用率、内存空闲率等,并计算GPU的延迟系数以及主机侧对GPU的延迟请求时间。
计算GPU的空闲内存的公式为:
Mi=M*ui (1);
Mi为第i个GPU的空闲内存,M为第i个GPU的固定内存,ui为第i个GPU的内存空闲率。
根据空闲内存计算GPU的延迟系数的公式为:
计算主机侧对GPU的延迟请求时间的公式为:
Ti=di*T (3);
di为第i个GPU的延迟系数,Ti为第i个GPU的延迟请求时间,Gi为第i个GPU的流处理器的实时利用率,能够直接将图形数据流映射到流处理器上进行处理,T为常量,全部的GPU,即云计算系统中具有的多个GPU的延迟请求时间的和为T,此值可以根据具体的系统以及应用程序进行设置。Gj为第j个GPU的流处理器的实时利用率,n为多个GPU的数量。
根据各个GPU的延迟请求时间进行排序;当到达一个GPU的延迟发送时间点时,将与此GPU对应的请求队列中在延迟请求时间内的写请求数据进行合并,形成请求写入数据,并将请求写入数据写入此GPU内存。
判断请求写入数据是否大于其对应的GPU的空闲内存,如果是,则将请求写入数据超出其对应的GPU的空闲内存的数据保留在请求队列中。
上述实施例中的GPU写请求数据的延迟控制方法,首先通过分类各应用程序到各GPU的写请求,并在主机侧对GPU内存的写请求进行基于策略的延迟控制,然后合并延迟内的多个写存请求进行批量处理,使得系统的IO性能有明显提高。
图2为根据本发明的GPU写请求数据的延迟控制方法的另一个实施例的流程示意图,如图2所示:
步骤201,获取GPUi流处理器,即多个GPU中的第i个GPU流处理器的实时利用率Gi、内存空闲率ui;按公式(1)计算GPUi的空闲内存Mi,M为GPU的固定内存。
步骤202,根据利用率Gi,按式(2)、(3)计算GPUi的延迟系数di,及主机侧对GPUi的延迟请求时间Ti,T为常量。
步骤203,按各GPU上运行的程序分类写请求并存入请求队列,并根据预设的分配比例,计算各卡上各程序的可用内存。
步骤204,按第202步骤计算的延迟时间排序GPU,顺序到达第一个延迟点时,将该点对应的GPU分类后的写入请求合并,并写入其GPU内存,以此类推。
步骤205,判断合并写入的内存是否超出GPU的空闲内存,如果是,则进入步骤206。
步骤206,若合并写入的内存超出GPU的空闲内存Mi,超出内存缓存在主机侧,其它写入GPU内存,并通知上层应用。重复步骤201-205。
如图3所示,在主机侧对GPU内存写入请求进行基于策略的延迟控制,根据GPU的空闲情况采用可调的延迟控制,合并在这个延迟时间内的多个写存请求进行批量写入。
针对主机系统上可能存在的多个GPU计算卡GPU1、GPU2……GPUn,以及分布在各计算卡上的处理程序应用1、应用2……应用n,对主机侧的请求进行分类。按各GPU卡上运行的应用程序分类写请求,并加入到装置中对应GPU的“请求队列”,如GPU1请求队列、GPU2请求队列……GPUn请求队列。根据GPU空闲情况,采用可调的延迟控制策略,计算各GPU的延迟点,顺序到达一个延迟点时,写入对应GPU卡延迟时间内的“合并请求”到GPU内存。
如图4所示,本发明提供一种GPU写请求数据的延迟控制装置。数据缓存模块41接收到对于GPU内存的写请求数据,在主机侧对写请求数据进行缓存。延迟计算模块42计算GPU的延迟请求时间;数据合并模块43当到达延迟发送时间点时,将在延迟请求时间内与GPU对应的写请求数据进行合并处理,并写入GPU的内存。
数据缓存模块41设置多个请求队列,多个请求队列与多个GPU为一一对应设置。接收到应用程序的写请求数据,确定此写请求数据请求写入的目的GPU,将此写请求数据放入与目的GPU相对应的请求队列中。
延迟计算模块42获取各个GPU的资源使用数据,基于资源使用数据计算此GPU的空闲内存。资源使用数据包括:GPU的流处理器的实时利用率、内存空闲率;计算GPU的延迟系数以及主机侧对GPU的延迟请求时间。
延迟计算模块42计算GPU的空闲内存的公式为:
Mi=M*ui
Mi为第i个GPU的空闲内存,M为第i个GPU的固定内存,ui为第i个GPU的内存空闲率。
延迟计算模块42根据空闲内存计算GPU的延迟系数的公式为:
延迟计算模块42计算主机侧对GPU的延迟请求时间的公式为:
Ti=di*T;
di为第i个GPU的延迟系数,Ti为第i个GPU的延迟请求时间,Gi为第i个GPU的流处理器的实时利用率,T为常量。
数据合并模块43根据各个GPU的延迟请求时间进行排序。当到达一个GPU的延迟发送时间点时,将与此GPU对应的请求队列中在延迟请求时间内的写请求数据进行合并,形成请求写入数据,并将请求写入数据写入此GPU内存。
数据合并模块43判断请求写入数据是否大于其对应的GPU的空闲内存,如果是,则将请求写入数据超出其对应的GPU的空闲内存的数据保留在请求队列中。
本发明提供一种云计算系统,包括如上的GPU写请求数据的延迟控制装置。
上述实施例提供的GPU写请求数据的延迟控制方法、装置以及云计算系统,在主机侧对GPU内存写入请求进行基于策略的延迟控制,根据GPU的空闲情况采用可调的延迟控制,合并在延迟时间内的多个写存请求进行批量写入,可有效避免小数据频繁传输导致的IO资源大量消耗,能够提升IO性能,进一步发挥协同计算中GPU的计算能力。
可能以许多方式来实现本发明的方法和系统。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明的方法和系统。用于方法的步骤的上述顺序仅是为了进行说明,本发明的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
本发明的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本发明限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本发明的原理和实际应用,并且使本领域的普通技术人员能够理解本发明从而设计适于特定用途的带有各种修改的各种实施例。

Claims (15)

1.一种图形处理器GPU写请求数据的延迟控制方法,其特征在于,包括:
接收到对于GPU内存的写请求数据;
在主机侧对所述写请求数据进行缓存;
计算所述GPU的延迟请求时间;
当到达延迟发送时间点时,将在所述延迟请求时间内与所述GPU对应的写请求数据进行合并处理,并写入所述GPU的内存。
2.如权利要求1所述的方法,其特征在于,所述接收到对于GPU内存的写请求数据、在主机侧对所述写请求数据进行缓存包括:
设置多个请求队列;其中,所述多个请求队列与多个GPU为一一对应设置;
接收到应用程序的写请求数据,确定此写请求数据请求写入的目的GPU,将此写请求数据放入与所述目的GPU相对应的请求队列中。
3.如权利要求2所述的方法,其特征在于,所述计算所述GPU的延迟请求时间包括:
获取各个GPU的资源使用数据,基于所述资源使用数据计算此GPU的空闲内存;其中,所述资源使用数据包括:GPU的流处理器的实时利用率、内存空闲率;
计算GPU的延迟系数以及主机侧对GPU的延迟请求时间。
4.如权利要求3所述的方法,其特征在于:
计算GPU的空闲内存的公式为:
Mi=M*ui
其中,Mi为第i个GPU的空闲内存,M为第i个GPU的固定内存,ui为第i个GPU的内存空闲率。
5.如权利要求4所述的方法,其特征在于:
计算GPU的延迟系数的公式为:
d i = G i Σ j = 1 j = n G j ;
计算主机侧对GPU的延迟请求时间的公式为:
Ti=di*T;
其中,di为第i个GPU的延迟系数,Ti为第i个GPU的延迟请求时间,Gi为第i个GPU的流处理器的实时利用率,T为常量,Gj为第j个GPU的流处理器的实时利用率,n为所述多个GPU的数量,i,j为自然数。
6.如权利要求5所述的方法,其特征在于,所述当到达延迟发送时间点时、将在所述延迟请求时间内与所述GPU对应的写请求数据进行合并处理、并写入所述GPU的内存包括:
根据各个GPU的延迟请求时间进行排序;
当到达一个GPU的延迟发送时间点时,将与此GPU对应的请求队列中在所述延迟请求时间内的写请求数据进行合并,形成请求写入数据,并将所述请求写入数据写入此GPU内存。
7.如权利要求6所述的方法,其特征在于,包括:
判断所述请求写入数据是否大于其对应的GPU的空闲内存,如果是,则将所述请求写入数据超出其对应的GPU的空闲内存的数据保留在请求队列中。
8.一种GPU写请求数据的延迟控制装置,其特征在于,包括:
数据缓存模块,用于接收到对于GPU内存的写请求数据,在主机侧对所述写请求数据进行缓存;
延迟计算模块,用于计算所述GPU的延迟请求时间;
数据合并模块,用于当到达延迟发送时间点时,将在所述延迟请求时间内与所述GPU对应的写请求数据进行合并处理,并写入所述GPU的内存。
9.如权利要求8所述的装置,其特征在于:
所述数据缓存模块,还用于设置多个请求队列;其中,所述多个请求队列与多个GPU为一一对应设置;接收到应用程序的写请求数据,确定此写请求数据请求写入的目的GPU,将此写请求数据放入与所述目的GPU相对应的请求队列中。
10.如权利要求8或9所述的装置,其特征在于:
所述延迟计算模块,用于获取各个GPU的资源使用数据,基于所述资源使用数据计算此GPU的空闲内存;其中,所述资源使用数据包括:GPU的流处理器的实时利用率、内存空闲率;计算GPU的延迟系数以及主机侧对GPU的延迟请求时间。
11.如权利要求10所述的装置,其特征在于:
所述延迟计算模块计算GPU的空闲内存的公式为:
Mi=M*ui
其中,Mi为第i个GPU的空闲内存,M为第i个GPU的固定内存,ui为第i个GPU的内存空闲率。
12.如权利要求11所述的装置,其特征在于:
所述延迟计算模块计算GPU的延迟系数的公式为:
d i = G i Σ j = 1 j = n G j ;
所述延迟计算模块计算主机侧对GPU的延迟请求时间的公式为:
Ti=di*T;
其中,di为第i个GPU的延迟系数,Ti为第i个GPU的延迟请求时间,Gi为第i个GPU的流处理器的实时利用率,T为常量,Gj为第j个GPU的流处理器的实时利用率,n为所述多个GPU的数量,i,j为自然数。
13.如权利要求12所述的装置,其特征在于:
所述数据合并模块,用于根据各个GPU的延迟请求时间进行排序;当到达一个GPU的延迟发送时间点时,将与此GPU对应的请求队列中在所述延迟请求时间内的写请求数据进行合并,形成请求写入数据,并将所述请求写入数据写入此GPU内存。
14.如权利要求13所述的装置,其特征在于,包括:
所述数据合并模块,用于判断所述请求写入数据是否大于其对应的GPU的空闲内存,如果是,则将所述请求写入数据超出其对应的GPU的空闲内存的数据保留在请求队列中。
15.一种云计算系统,其特征在于:
包括如权利要求8至14任意一项所述的GPU写请求数据的延迟控制装置。
CN201510968173.7A 2015-12-22 2015-12-22 Gpu写请求数据的延迟控制方法、装置以及云计算系统 Active CN106909522B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510968173.7A CN106909522B (zh) 2015-12-22 2015-12-22 Gpu写请求数据的延迟控制方法、装置以及云计算系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510968173.7A CN106909522B (zh) 2015-12-22 2015-12-22 Gpu写请求数据的延迟控制方法、装置以及云计算系统

Publications (2)

Publication Number Publication Date
CN106909522A true CN106909522A (zh) 2017-06-30
CN106909522B CN106909522B (zh) 2020-03-20

Family

ID=59200401

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510968173.7A Active CN106909522B (zh) 2015-12-22 2015-12-22 Gpu写请求数据的延迟控制方法、装置以及云计算系统

Country Status (1)

Country Link
CN (1) CN106909522B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108984132A (zh) * 2018-08-24 2018-12-11 郑州云海信息技术有限公司 一种基于持久性内存文件系统的io调度方法及装置
CN113268356A (zh) * 2021-07-20 2021-08-17 西安芯瞳半导体技术有限公司 基于LINUX系统的多GPU板卡bounding的系统、方法及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1178941A (zh) * 1996-10-07 1998-04-15 国际商业机器公司 通过合并存储操作进行集中存储的处理机及方法
CN104346285A (zh) * 2013-08-06 2015-02-11 华为技术有限公司 内存访问处理方法、装置及系统
US20150364191A1 (en) * 2013-01-31 2015-12-17 Hewlett-Packard Development Company, L.P. Non-volatile multi-level-cell memory with decoupled bits for higher performance and energy efficiency

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1178941A (zh) * 1996-10-07 1998-04-15 国际商业机器公司 通过合并存储操作进行集中存储的处理机及方法
US20150364191A1 (en) * 2013-01-31 2015-12-17 Hewlett-Packard Development Company, L.P. Non-volatile multi-level-cell memory with decoupled bits for higher performance and energy efficiency
CN104346285A (zh) * 2013-08-06 2015-02-11 华为技术有限公司 内存访问处理方法、装置及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108984132A (zh) * 2018-08-24 2018-12-11 郑州云海信息技术有限公司 一种基于持久性内存文件系统的io调度方法及装置
CN113268356A (zh) * 2021-07-20 2021-08-17 西安芯瞳半导体技术有限公司 基于LINUX系统的多GPU板卡bounding的系统、方法及介质

Also Published As

Publication number Publication date
CN106909522B (zh) 2020-03-20

Similar Documents

Publication Publication Date Title
CN102624922B (zh) 一种网络gis异构集群服务器负载均衡方法
CN105718364B (zh) 一种云计算平台中计算资源能力动态评估方法
CN103595780B (zh) 基于消重的云计算资源调度方法
CN107967180B (zh) 基于numa虚拟化环境下资源全局亲和度网络优化方法和系统
CN109643243A (zh) 动态虚拟cpu核分配
US20100274879A1 (en) Dynamic Scheduling Interrupt Controller For Multiprocessors
CN103297499B (zh) 一种基于云平台的调度方法及系统
David et al. Dynamic power management of voltage-frequency island partitioned networks-on-chip using intel sing-chip cloud computer
CN102906726A (zh) 协处理加速方法、装置及系统
CN105468291B (zh) 动态及静态磨损均衡控制方法及装置
CN105608490A (zh) 细胞阵列计算系统以及其中的通信方法
CN108021429B (zh) 一种基于numa架构的虚拟机内存及网卡资源亲和度计算方法
CN102916905A (zh) 一种基于hash算法的万兆网卡多路分流方法及其系统
CN103631537B (zh) 一种虚拟磁盘的管理方法及装置
WO2021088404A1 (zh) 一种数据处理方法、装置、设备及可读存储介质
CN111176836B (zh) 一种云渲染资源调度方法及装置
CN108509014A (zh) 计算设备和分配功率到每个计算设备中的多个核的方法
WO2021253817A1 (zh) 一种互联通道的调整方法、装置、系统、设备和介质
CN108418858A (zh) 一种面向Geo-distributed云存储的数据副本放置方法
CN106776466A (zh) 一种fpga异构加速计算装置及系统
CN106909522A (zh) Gpu写请求数据的延迟控制方法、装置以及云计算系统
US11513849B2 (en) Weighted resource cost matrix scheduler
Tan et al. VMCD: a virtual multi-channel disk I/O scheduling method for virtual machines
CN103903295A (zh) 一种基于InfiniBand实时调度海量高精度三维场景数据的方法
US20230044342A1 (en) Detection of memory accesses

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant