CN114331804A - 资源处理方法、装置、设备及存储介质 - Google Patents

资源处理方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN114331804A
CN114331804A CN202111609044.0A CN202111609044A CN114331804A CN 114331804 A CN114331804 A CN 114331804A CN 202111609044 A CN202111609044 A CN 202111609044A CN 114331804 A CN114331804 A CN 114331804A
Authority
CN
China
Prior art keywords
gpu
variable
resource
jth
shared memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111609044.0A
Other languages
English (en)
Inventor
唐鑫
李勇
李志�
黎世勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202111609044.0A priority Critical patent/CN114331804A/zh
Publication of CN114331804A publication Critical patent/CN114331804A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

本公开提供了资源处理方法、装置、设备及存储介质,涉及计算机技术领域,尤其涉及云计算虚拟化资源管理领域。具体实现方案为:基于显卡的M个共享内存中每个进程占用的M种图形处理器(GPU)资源的情况,得到M个第一变量记录和N个第二变量记录;其中,M个第一变量记录中不同的第一变量记录为不同的共享内存中至少一个进程占用M种GPU资源的使用总量;N个第二变量记录中不同的第二变量记录为不同的共享内存中不同进程占用对应的GPU资源的使用量;根据M个第一变量记录和N个第二变量记录,得到显卡的GPU资源使用值。根据本公开的技术方案,能提高GPU资源的统计正确率。

Description

资源处理方法、装置、设备及存储介质
技术领域
本公开涉及计算机技术领域,尤其涉及云计算虚拟化资源管理技术领域。
背景技术
随着图形处理器(Graphics Processing Unit,GPU)虚拟化技术的发展,对GPU资源的统计变得越来越重要。相关技术中,随着多进程服务功能的引入,GPU资源的统计正确率降低。
发明内容
本公开提供了一种资源处理方法、装置、设备、存储介质以及计算机程序产品。
根据本公开的第一方面,提供了一种资源处理方法,包括:
基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况,得到M个第一变量记录和N个第二变量记录;其中,M个第一变量记录中不同的第一变量记录为不同的共享内存中至少一个进程占用M种GPU资源的使用总量;N个第二变量记录中不同的第二变量记录为不同的共享内存中不同进程占用对应的GPU资源的使用量,M为大于1的整数,N为大于1的整数;
根据M个第一变量记录和N个第二变量记录,得到显卡的GPU资源使用值;其中,GPU资源使用值包括所有进程占用M种GPU资源的M个使用总量,和每个进程分别对每种GPU资源的使用量。
根据本公开的第二方面,提供了一种资源处理装置,包括:
第一记录单元,用于基于显卡的M个共享内存中每个进程占用的M种图形处理器GPU资源的情况,得到M个第一变量记录和N个第二变量记录;其中,M个第一变量记录中不同的第一变量记录为不同的共享内存中至少一个进程占用M种GPU资源的使用总量;N个第二变量记录中不同的第二变量记录为不同的共享内存中不同进程占用对应的GPU资源的使用量,M为大于1的整数,N为大于1的整数;
统计单元,用于根据M个第一变量记录和N个第二变量记录,得到显卡的GPU资源使用值;其中,GPU资源使用值包括所有进程占用M种GPU资源的M个使用总量,和每个进程分别对每种GPU资源的使用量。
根据本公开的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行以上所述的方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行以上所述的方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以上所述的方法。
根据本公开的技术方案,能提高GPU资源的统计正确率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例资源处理方法的实现流程示意图一;
图2是根据本公开实施例资源处理方法的实现流程示意图二;
图3是根据本公开实施例的共享内存、GPU资源和信号量的关系示意图;
图4是根据本公开实施例资源处理方法的实现流程示意图三;
图5是根据本公开实施例资源处理方法的实现流程示意图四;
图6是根据本公开实施例资源处理装置的结构示意图一;
图7是根据本公开实施例资源处理装置的结构示意图二;
图8是用来实现本公开实施例资源处理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开的说明书实施例和权利要求书及上述附图中的术语“第一”、“第二”和“第三”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元。方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本公开实施例提供一种资源处理方法,该方法可以应用于电子设备,该电子设备包括但不限于固定设备和/或移动设备,例如,固定设备包括但不限于服务器,服务器可以是云服务器或普通服务器。例如,移动设备包括但不限于:手机或平板电脑中的一项或是多项。如图1所示,该资源处理方法包括:
S101:基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况,得到M个第一变量记录和N个第二变量记录;其中,M个第一变量记录中不同的第一变量记录为不同的共享内存中至少一个进程占用M种GPU资源的使用总量;N个第二变量记录中不同的第二变量记录为不同的共享内存中不同进程占用对应的GPU资源的使用量,M为大于1的整数,N为大于1的整数;
S102:根据M个第一变量记录和N个第二变量记录,得到显卡的GPU资源使用值;其中,GPU资源使用值包括所有进程占用M种GPU资源的M个使用总量,和每个进程分别对每种GPU资源的使用量。
上述显卡是能提供GPU资源的显卡。上述显卡可以是独立的一个显卡,也可以是多显卡系统中的显卡。本公开不对显卡的类型进行限定。
其中,GPU资源的种类由显卡的功能决定,不同显卡对应的GPU资源的种类数可以不同。
一般来说,GPU资源至少分为两种:显存资源和算力资源。
这里,M的值由显卡对应的GPU资源的种类数决定。比如,显卡具有2种GPU资源,则M=2。又比如,显卡具有3种GPU资源,那么,M=3。
这里,N的值由使用共享内存所记载的GPU资源的进程数决定。不同共享内存对应的N的值可以不同。比如,共享内存1对应的GPU资源记为a资源,使用a资源的进程数为n1,则N=n1;共享内存2对应的GPU资源记为b资源,使用b资源的进程数为n2,则N=n2,n1≠n2。
在一些实施方式中,基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况,得到M个第一变量记录和N个第二变量记录,包括:将每个进程对第j种GPU资源的使用量,记录在第j个共享内存的第二变量记录中;根据每个进程对第j种GPU资源的使用量,得到所有进程对第j种GPU资源的使用总量;将所有进程对第j种GPU资源的使用总量,记录在第j个共享内存的第一变量记录中,j为大于等于1且小于等于M的整数。如此,便于后续快速对GPU资源值进行统计。
在另一些实施方式中,基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况,得到M个第一变量记录和N个第二变量记录,包括:获取当前第j种GPU资源对应的使用总量以及各个进程的使用量,将第j种GPU资源对应的使用总量,记录在第j个共享内存的第一变量记录中;将各个进程对第j种GPU资源的使用量,记录在第j个共享内存的第二变量记录中,j为大于等于1且小于等于M的整数。如此,便于后续快速对GPU资源值进行统计。
这里,显卡的GPU资源使用值至少包括:所有进程对显卡中每种GPU资源的使用总量;每个进程对显卡中每种GPU资源的使用量。
在一些实施方式中,根据M个第一变量记录和N个第二变量记录,得到显卡的GPU资源使用值,包括:从M个第一变量记录中获取M种资源的使用总量;从N个第二变量中统计出每个进程对M种GPU资源的使用量。如此,能够根据第一变量记录和第二变量记录直接统计得到显卡的GPU资源使用值,提高了统计显卡的GPU资源使用值的效率。
在另一些实施方式中,根据M个第一变量记录和N个第二变量记录,得到显卡的GPU资源使用值,包括:从N个第二变量中统计出每个进程对M种GPU资源的使用量;根据每个进程对M种GPU资源的使用量得到M种资源的使用总量;将根据每个进程对M种GPU资源的使用量得到M种资源的使用总量,与从M个第一变量记录中获取M种资源的使用总量进行对比,根据对比结果确定M种资源的使用总量。比如,若比对结果为根据每个进程对M种GPU资源的使用量得到M种资源的使用总量,与从M个第一变量记录中获取M种资源的使用总量相同,则将从M个第一变量记录中获取M种资源的使用总量,作为最终的关于M种资源的使用总量的统计结果。又比如,若比对结果为根据每个进程对M种GPU资源的使用量得到M种资源的使用总量,与从M个第一变量记录中获取M种资源的使用总量不相同,则获取新的M个第一变量记录和新的N个第二变量记录,根据新的M个第一变量记录和新的N个第二变量记录重新执行统计步骤,直至根据每个进程对M种GPU资源的使用量得到M种资源的使用总量,与从M个第一变量记录中获取M种资源的使用总量相同。如此,能够充分利用第二变量记录对第一变量记录的值进行验证,从而进一步保证统计得到的显卡的GPU资源使用值的准确性。
本公开实施例所述的技术方案,通过基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况,得到M个第一变量记录和N个第二变量记录;根据M个第一变量记录和N个第二变量记录,统计得到显卡的GPU资源使用值,这样,由于对每个进程占用每种GPU资源的情况进行了记录,在对显卡的GPU资源使用值进行统计时,能够准确地得出统计结果,提高了GPU资源的统计正确率。
本公开实施例提供了一种资源处理方法,该方法可以应用于电子设备,该电子设备包括但不限于固定设备和/或移动设备,例如,固定设备包括但不限于服务器,服务器可以是云服务器或普通服务器。例如,移动设备包括但不限于:手机或平板电脑中的一项或是多项。如图2所示,该资源处理方法包括:
S201:确定显卡的M种GPU资源对应的M个共享内存,M种GPU资源与M个共享内存一一对应;
S202:确定M个共享内存对应的M个信号量,M个共享内存与M个信号量一一对应;
S203:基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况,得到M个第一变量记录和N个第二变量记录;其中,M个第一变量记录中不同的第一变量记录为不同的共享内存中至少一个进程占用M种GPU资源的使用总量;N个第二变量记录中不同的第二变量记录为不同的共享内存中不同进程占用对应的GPU资源的使用量;
S204:根据M个第一变量记录和N个第二变量记录,得到显卡的GPU资源使用值;其中,GPU资源使用值包括所有进程占用M种GPU资源的M个使用总量,和每个进程分别对每种GPU资源的使用量。
针对每一个共享内存,为每一种GPU资源维护了一个信号量。当进程需要对共享内存中某种GPU资源使用量的值更改时,需要先获取该共享内存中对应资源的信号量。因为每个共享内存在每种资源上的信号量只有一个,所以同一时间只能有一个进程对该共享内存中的某种GPU资源的使用量进行更改。
在一些实施方式中,确定显卡的M种GPU资源对应的M个共享内存,包括:根据显卡的M种GPU资源分配M个共享内存,将M种GPU资源与M个共享内存一一对应。这样,能够为M种GPU资源分配M个共享内存,得到M种GPU资源与M个共享内存的一一对应关系。如此,为后续基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况得到M个第一变量记录和N个第二变量记录,提供了基础性支撑。
在另一些实施方式中,确定显卡的M种GPU资源对应的M个共享内存,包括:从预先配置的S个共享内存选取M个共享内存,根据共享内存的大小和GPU资源的种类,将M个共享内存与M种GPU资源一一对应,S为大于等于M的整数,S个共享内存中至少一个共享内存的大小与其他共享内存的大小不同。这样,能够为M种GPU资源分配与之相适应的M个共享内存,得到M种GPU资源与M个共享内存的一一对应关系。如此,为后续基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况得到M个第一变量记录和N个第二变量记录,提供了基础性支撑。
在一些实施方式中,确定M个共享内存对应的M个信号量,包括:根据M个共享内存分配M个信号量,将M个共享内存与M个信号量一一对应。这样,能够为M个共享内存分配M个信号量,得到M个共享内存与M个信号量的一一对应关系。如此,为后续基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况得到M个第一变量记录和N个第二变量记录提供了有序性支撑。
在另一些实施方式中,确定M个共享内存对应的M个信号量,包括:基于M种GPU资源与M个信号量的对应关系,为M种GPU资源对应的M个共享内存分配M个信号量,将M个共享内存与M个信号量一一对应。这样,能够为M个共享内存分配与其存储的GPU资源相适应的M个信号量,得到M个共享内存与M个信号量的一一对应关系。如此,为后续基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况得到M个第一变量记录和N个第二变量记录,提供了有序性支撑。
本公开实施例中,显卡的GPU资源与共享内存及信号量的关系示意图如图3所示,从图3可以看出,显卡1具有M种GPU资源,为每种GPU资源分配一个共享内存,并为每个共享内存分配一个信号量,M种GPU资源与M个共享内存一一对应,M个共享内存与M个信号量与一一对应。
应当理解,上述关系示意图仅仅是示例性而不是限制性的,并且其是可扩展的,其中可以包括更多的显卡,并且对于每个显卡的每种GPU资源,可以使用更多的共享内存和信号量来维护,从而使得可以满足同时利用更多的显卡和更多的GPU资源来处理更多的进程任务需求。
示例性地,显卡1具有2种GPU资源,分别记为a资源和b资源,那么,为显卡1分配2个共享内存,分别记为共享内存1和共享内存2;共享内存1存储关于a资源的使用情况,共享内存2存储关于b资源的使用情况;并且,为共享内存1分配一个信号量,记为信号量a’;为共享内存2分配一个信号量,记为信号量b’;对于访问共享内存1的各个进程,获得信号量a’的进程,能够对a资源的占用情况优先进行记录。对于访问共享内存2的各个进程,获得信号量b’的进程,能够对b资源的占用情况优先进行记录。
本公开实施例所述的技术方案,通过预先确定显卡的M种GPU资源对应的M个共享内存,确定M个共享内存对应的M个信号量,为后续得到的M个第一变量记录和N个第二变量记录提供了基础性支撑,有助于保障记录工作的有序开展,从而提高了对GPU资源的统计的正确率。另外,相对于多张显卡共用一个共享内存和信号量,减少了同步的阻塞时间,提高了并发效率。
在一些实施方式中,基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况,得到M个第一变量记录和N个第二变量记录,包括:在第i个进程获得M个共享内存中的第j个共享内存的信号量的情况下,对第j个共享内存中第i个进程占用的第j个GPU资源的使用量进行记录,得到第j个共享内存的第一变量记录和第二变量记录,i为大于等于1的整数,j为大于等于1且小于等于M的整数。如此,通过为每种GPU资源维护单独的信号量,减少了资源更新时因进程同步造成的阻塞,提高了并发效率。
举例来说,显卡1包括2个共享内存,分别记为共享内存1和共享内存2;共享内存1用于记录显存资源,且配套的信号量记为信号量1;共享内存2用于记录算力资源,且配套的信号量记为信号量2;假设当前有2个进程,分别记为进程1和进程2,进程1和进程2访问共享内存1时,都应先获得信号量1,进程1和进程2访问共享内存2时,都应先获得信号量2。若进程1访问共享内存1时,获得了信号量1,进程2此时不能访问共享内存1。若进程1获得了信号量1,其申请显存资源100兆,在共享内存1中,第一变量记录包括x1=100兆,x1表示显存资源使用总量;第二变量记录包括y11=100兆,y11表示进程1的显存资源使用量;若进程1释放信号量1后,进程2获得了信号量1,其申请显存资源50兆,在共享内存1中,第一变量记录包括x1=150兆,x1表示显存资源使用总量;第二变量记录包括y11=100兆,y11表示进程1的显存资源使用量;y12=50兆,y12表示进程2的显存资源使用量。
在另一些实施方式中,基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况,得到M个第一变量记录和N个第二变量记录,包括:按照第i个进程访问M个共享内存中的第j个共享内存的时间顺序,对第j个共享内存中第i个进程占用的第j个GPU资源的使用量进行记录,得到第j个共享内存的第一变量记录和第二变量记录,i为大于等于1的整数,j为大于等于1且小于等于M的整数。如此,有助于按照顺序将每个进程占用的M种GPU资源的情况,写入第一变量记录和第二变量记录,从而有助于防止漏写情况的发生。
本公开实施例所述的技术方案,显卡中使用共享内存和信号量记录各个进程占用GPU资源的使用情况,保障了各进程占用GPU资源的使用记录的准确性,为后续统计显卡的GPU资源使用值奠定了正确的数据基础,从而提高了对GPU资源的统计的正确率。
本公开实施例提供一种资源处理方法,该方法可以应用于电子设备,该电子设备包括但不限于固定设备和/或移动设备,例如,固定设备包括但不限于服务器,服务器可以是云服务器或普通服务器。例如,移动设备包括但不限于:手机或平板电脑中的一项或是多项。如图4所示,该资源处理方法包括:
S401:基于每个进程占用显卡的M种GPU资源的情况,确定每个进程中M个原子变量的值;基于每个进程中M个原子变量的值,确定每个进程占用显卡的M种GPU资源的情况;
S402:基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况,得到M个第一变量记录和N个第二变量记录;其中,M个第一变量记录中不同的第一变量记录为不同的共享内存中至少一个进程占用M种GPU资源的使用总量;N个第二变量记录中不同的第二变量记录为不同的共享内存中不同进程占用对应的GPU资源的使用量;
S403:根据M个第一变量记录和N个第二变量记录,得到显卡的GPU资源使用值;其中,GPU资源使用值包括所有进程占用M种GPU资源的M个使用总量,和每个进程分别对每种GPU资源的使用量。
其中,原子变量用来记录每个进程的资源使用量。每个进程都维护了多个原子变量,用来记录该进程在不同显卡上的资源使用量。
需要说明的是,不同进程对应的原子变量的总数可以不同。每个进程的原子变量的个数为该进程当前占用的各个显卡的GPU资源总数。比如,第1个进程占用了2个显卡的GPU资源,第一个显卡的GPU资源种类数为2,第二个显卡的GPU资源种类数为3,那么,第1个进程有5个原子变量。第1个进程占用了3个显卡的GPU资源,第一个显卡的GPU资源种类数为2,第二个显卡的GPU资源种类数为3,第二个显卡的GPU资源种类数为4,那么,第2个进程有9个原子变量。
举例来说,在每一个容器中,都可以运行多个进程,比如进程A和进程B,每一个进程又可以包含多个线程,如进程A中有线程a1和线程a2,进程B中有线程b1和线程b2,且每一个线程都可以使用GPU资源。GPU资源包括显存、算力等资源,且GPU资源分布在不同的显卡上,如显卡1和显卡2。比如,A进程中维护了原子变量A_1_1,A_1_2,A_2_1,A_2_2,分别表示A进程在显卡1上的显存使用量、A进程在显卡1上的算力使用量、A进程在显卡2上的显存使用量、A进程在显卡2上的算力使用量。
在一些实施方式中,基于每个进程占用显卡的M种GPU资源的情况,确定每个进程中M个原子变量的值,包括:按照M种GPU资源的优先级顺序,确定每个进程中M个原子变量的值。
在另一些实施方式中,基于每个进程占用显卡的M种GPU资源的情况,确定每个进程中M个原子变量的值,包括:按照每个进程占用每种GPU资源的时间顺序,确定每个进程中M个原子变量的值。
本公开实施例所述的技术方案,通过在进程中使用原子变量备份各进程对每种GPU资源的使用情况,能为共享内存中的第一变量记录和第二变量记录提供数据基础,保证统计的各进程对每种GPU资源的使用情况的准确性,从而能进一步保证对GPU资源使用量的统计的正确性。
基于图4所示技术方案,在一些实施例中,该资源处理方法还可以包括:
响应于第i个进程对第j个共享内存对应的GPU资源的更新请求,在第i个进程中查找第j个共享内存对应的GPU资源所对应的原子变量;i为大于等于1的整数,j为大于等于1且小于等于M的整数;
基于更新请求所请求的占用第j个共享内存对应的GPU资源的使用量,对第j个共享内存对应的GPU资源所对应的原子变量的值进行更新操作。
这里,更新请求适用于进程占用GPU资源变更的情景,包括但不限于申请GPU资源请求、释放GPU资源请求。
举例来说,当A进程的线程a1,在申请GPU资源时,会根据所申请GPU资源对应的显卡和资源类型,找到A进程中记录该类型资源的原子变量,如A_1_2表示进程A在显卡1上的算力资源使用量,对该原子变量A_1_2的值进行更改,具体为在原值基础上加上所申请的算力资源使用量。
又举例来说,当B进程的线程b2,在释放GPU资源时,会根据所释放GPU资源对应的显卡和资源类型,找到B进程中记录该类型资源的原子变量,如B_1_1表示B进程在显卡1上的显存使用量,对该原子变量B_1_1的值进行更改,具体为在原值基础上减去所释放的显存资源使用量。
需要说明的是,原子变量能够保证一个进程中,同时只有一个线程在更新该原子变量的值,当一个线程对某一原子变量的值进行更改时,该进程的其他线程若也申请或释放同类GPU资源,则无法对该原子变量的值进行操作,需要等待前一线程对应的原子变量数值更新完成。
本公开实施例所述的技术方案,通过在进程中对原子变量的值进行有序变更,能够保证原子变量所记录的各进程对每种GPU资源的使用情况的准确性,从而能进一步保证统计的GPU资源使用量的正确性。
基于图4所示技术方案,该资源处理方法还可以包括:基于第i个进程中对第j个共享内存对应的GPU资源所对应的原子变量的更新后的值,调整第j个共享内存中的第一变量记录和第二变量记录。
在一些实施方式中,基于第i个进程中对第j个共享内存对应的GPU资源所对应的原子变量的更新后的值,调整第j个共享内存中的第一变量记录和第二变量记录,包括:基于第i个进程中对第j个共享内存对应的GPU资源所对应的原子变量的更新后的值,更新第j个共享内存中的第一变量记录中关于所有进程对第j种GPU资源的使用总量;基于第i个进程中对第j个共享内存对应的GPU资源所对应的原子变量的更新后的值,更新第j个共享内存中的第二变量记录中关于第i个进程对第j种GPU资源的使用量。
举例来说,显卡1包括2个共享内存,分别记为共享内存1和共享内存2;共享内存1用于记录显存资源,且配套的信号量记为信号量1;共享内存2用于记录算力资源,且配套的信号量记为信号量2;假设当前有2个进程,分别记为进程1和进程2,在共享内存1中,第一变量记录包括x1=150兆,x1表示显存资源使用总量;第二变量记录包括y11=100兆,y11表示进程1的显存资源使用量;y12=50兆,y12表示进程2的显存资源使用量;进程1和进程2访问共享内存1时,都应先获得信号量1。若进程1访问共享内存1时,获得了信号量1,进程2此时不能访问共享内存1。在共享内存2中,第一变量记录包括x2=200兆,x2表示算力资源使用总量;第二变量记录包括y21=50兆,y21表示进程1的算力资源使用量;y22=150兆,y22表示进程2的算力资源使用量;进程1和进程2访问共享内存2时,都应先获得信号量2。若进程2访问共享内存2时,获得了信号量2,进程1此时不能访问共享内存2。若进程1申请释放显存资源100兆,那么,进程1中用于记录显存资源的原子变量的值由100兆更新为0,进而将共享内存1中的第一变量记录中的x1由150兆更新为50兆,将共享内存1中的第二变量记录中的y11由100兆更新为0。
在另一些实施方式中,基于第i个进程中对第j个共享内存对应的GPU资源所对应的原子变量的更新后的值,调整第j个共享内存中的第一变量记录和第二变量记录,包括:基于第i个进程中对第j个共享内存对应的GPU资源所对应的原子变量的更新后的值,更新第j个共享内存中的第二变量记录中关于第i个进程对第j种GPU资源的使用量;基于第二变量记录中更新后的关于第i个进程对第j种GPU资源的使用量,更新第j个共享内存中的第一变量记录中关于所有进程对第j种GPU资源的使用总量。
需要说明的是,本公开不对第一变量记录和第二变量记录的调整顺序进行限定,可以同时更新,也可以先更新第一变量记录,还可以先更新第二变量记录。
本公开实施例所述的技术方案,通过在进程中使用原子变量、在显卡中使用共享内存和信号量,并为每种GPU资源分配独立的共享内存,为每个共享内存分配独立的信号量,在多进程服务开启后也能准确地统计出GPU资源的使用量,且相对于多张显卡共用一个共享内存和信号量,减少了同步的阻塞时间,提高了并发效率。
当进程正常退出时,主动去对应的共享内存中减去其资源使用量。如果进程是异常终止的,虽然其已不再使用GPU资源,但是对应的共享内存中的资源使用量的值可能会因异常终止而来不及更改,导致GPU资源使用值的统计出错。为了避免这种错误,本公开实施例提供一种资源处理方法,如图5所示,该资源处理方法包括:
S501:基于显卡的M个共享内存中每个进程占用的M种GPU资源的情况,得到M个第一变量记录和N个第二变量记录;其中,M个第一变量记录中不同的第一变量记录为不同的共享内存中至少一个进程占用M种GPU资源的使用总量;N个第二变量记录中不同的第二变量记录为不同的共享内存中不同进程占用对应的GPU资源的使用量;
S502:在M个共享内存中存在异常终止的进程的情况下,确定该异常终止的进程所对应的M种GPU资源的使用量,从M个共享内存中去除该异常终止的进程所对应的M种GPU资源的使用量,得到新的M个第一变量记录和新的N个第二变量记录;
S503:根据新的M个第一变量记录和新的N个第二变量记录,得到显卡的GPU资源使用值;其中,该GPU资源使用值包括所有进程占用M种GPU资源的M个使用总量,和每个进程分别对每种GPU资源的使用量。
这里,异常终止是相对于正常退出而言的,因此,可以将非正常退出的进程理解为异常终止的进程。
需要说明的是,S502发生在整个资源统计过程中,也可在满足检查条件时执行,本公开对此不做限制。
在一具体实施方式中,检查条件为实时触发,响应于触发该检查条件,即实时检查M个共享内存中是否存在异常终止的进程,若存在异常终止的进程,则确定该异常终止的进程所应释放的资源使用量,从共享内存中去除该异常终止的进程所应释放的资源使用量。
在另一具体实施方式中,检查条件为周期性触发,响应于触发该检查条件,即在达到检查周期时检查M个共享内存中是否存在某些进程异常终止的情况,若存在异常终止的进程,则确定该异常终止的进程所应释放的资源使用量,从共享内存中去除该异常终止的进程所应释放的资源使用量。
在又一具体实施方式中,检查条件为新的进程启动时触发,响应于触发该检查条件,即当有新的进程启动时,检查M个共享内存中是否存在某些进程异常终止的情况,若存在异常终止的进程,则确定该异常终止的进程所应释放的资源使用量,再从共享内存中去除该异常终止的进程所应释放的资源使用量。
举例来说,显卡1包括2个共享内存,分别记为共享内存1和共享内存2;共享内存1用于记录显存资源,且配套的信号量记为信号量1;共享内存2用于记录算力资源,且配套的信号量记为信号量2;假设当前有2个进程,分别记为进程1和进程2,在共享内存1中,第一变量记录包括x1=150兆,x1表示显存资源使用总量;第二变量记录包括y11=100兆,y11表示进程1的显存资源使用量;y12=50兆,y12表示进程2的显存资源使用量;进程1和进程2访问共享内存1时,都应先获得信号量1。若进程1访问共享内存1时,获得了信号量1,进程2此时不能访问共享内存1。在共享内存2中,第一变量记录包括x2=200兆,x2表示算力资源使用总量;第二变量记录包括y21=50兆,y21表示进程1的算力资源使用量;y22=150兆,y22表示进程2的算力资源使用量;进程1和进程2访问共享内存2时,都应先获得信号量2。若进程2访问共享内存2时,获得了信号量2,进程1此时不能访问共享内存2。若进程3第一次访问共享内存1,由于共享内存1中记录了进程1和进程2对显存资源的使用情况,那么,检查进程1和进程2是否存在异常终止,如果均不存在异常终止情况,假设进程3申请显存资源30兆,则在第一变量记录中将x1由150兆变更为180兆;第二变量记录经变更后包括y11=100兆,y11表示进程1的显存资源使用量;y12=50兆,y12表示进程2的显存资源使用量;y13=30兆,y13表示进程3的显存资源使用量。如果进程1异常终止情况,则先在第一变量记录中将x1由150兆变更为50兆;在第二变量记录中将y11由100兆变为0,y11表示进程1的显存资源使用量;y12=50兆,y12表示进程2的显存资源使用量;假设进程3申请显存资源30兆,则第一变量记录变更为x1=80兆;第二变量记录变更为y11=0,y11表示进程1的显存资源使用量;y12=50兆,y12表示进程2的显存资源使用量;y13=30兆,y13表示进程3的显存资源使用量。
本公开实施例所述的技术方案,通过检测异常终止的进程机制,即使出现了进程异常退出的情况,也能保证统计的GPU资源的使用量的正确性。
本公开提供的资源处理方法,可以用于资源统计或资源分配等项目中。示例性地,方法的执行主体可以是电子设备,也可以是服务器。本公开提供的资源处理方法可应用于多进程服务场景。示例性地,当容器中的业务进程需要使用虚拟化服务时,直接链接到能挂载到不同的容器环境中的GPU虚拟化动态库即可,上述资源处理方法可应用于该GPU虚拟化动态库,GPU虚拟化动态库处理进程的资源申请或释放请求,保证对容器中GPU资源使用情况的管理。
本公开实施例还提供了一种资源处理装置,如图6所示,该资源处理装置包括:
第一记录单元610,用于基于显卡的M个共享内存中每个进程占用的M种图形处理器GPU资源的情况,得到M个第一变量记录和N个第二变量记录;其中,M个第一变量记录中不同的第一变量记录为不同的共享内存中至少一个进程占用M种GPU资源的使用总量;N个第二变量记录中不同的第二变量记录为不同的共享内存中不同进程占用对应的GPU资源的使用量,M为大于1的整数,N为大于1的整数;
统计单元620,用于根据M个第一变量记录和N个第二变量记录,得到显卡的GPU资源使用值;其中,GPU资源使用值包括所有进程占用M种GPU资源的M个使用总量,和每个进程分别对每种GPU资源的使用量。
在一些实施方式中,如图7所示,该装置还可以包括:
确定单元630,用于确定显卡的M种GPU资源对应的M个共享内存,M种GPU资源与M个共享内存一一对应;确定M个共享内存对应的M个信号量,M个共享内存与M个信号量一一对应。
在一些实施方式中,第一记录单元610,具体用于在第i个进程获得M个共享内存中的第j个共享内存的信号量的情况下,对第j个共享内存中第i个进程占用的第j个GPU资源的使用量进行记录,得到第j个共享内存的第一变量记录和第二变量记录,i为大于等于1的整数,j为大于等于1且小于等于M的整数。
在一些实施方式中,如图7所示,该装置还可以包括:
第二记录单元640,用于基于每个进程占用显卡的M种GPU资源的情况,确定每个进程中M个原子变量的值。
在一些实施方式中,如图7所示,该装置还可以包括:查找单元650;其中,该查找单元650,用于响应于第i个进程对第j个共享内存对应的GPU资源的更新请求,在第i个进程中查找第j个共享内存对应的GPU资源所对应的原子变量;i为大于等于1的整数,j为大于等于1且小于等于M的整数;
该第二记录单元640,还用于基于该更新请求所请求的占用第j个共享内存对应的GPU资源的使用量,对第j个共享内存对应的GPU资源所对应的原子变量的值进行更新操作。
在一些实施方式中,如图7所示,该装置还可以包括:
调整单元660,用于基于第i个进程中对第j个共享内存对应的GPU资源所对应的原子变量的更新后的值,调整第j个共享内存中的第一变量记录和第二变量记录。
在一些实施方式中,如图7所示,该装置还可以包括:
修正单元670,用于在M个共享内存中存在异常终止的进程的情况下,确定该异常终止的进程所对应的M种GPU资源的使用量,从M个共享内存中去除该异常终止的进程所对应的M种GPU资源的使用量。
本领域技术人员应当理解,本公开实施例的资源处理装置中各处理模块的功能,可参照前述的资源处理方法的相关描述而理解,本公开实施例的资源处理装置中各处理模块,可通过实现本公开实施例所述的功能的模拟电路而实现,也可以通过执行本公开实施例所述的功能的软件在电子设备上的运行而实现。
本公开实施例的资源处理装置,能提高对GPU资源的统计正确率。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(Read-OnlyMemory,ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RandomAccess Memory,RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(Input/Output,I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(Central Processing Unit,CPU)、图形处理单元(Graphics Processing Unit,GPU)、各种专用的人工智能(ArtificialIntelligence,AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(Digital Signal Processor,DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如资源处理方法。例如,在一些实施例中,资源处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的资源处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行资源处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(Field Programmable Gate Array,FPGA)、专用集成电路(Application Specific Integrated Circuit,ASIC)、专用标准产品(Application-Specific Standard Products,ASSP)、芯片上系统的系统(System on Chip,SOC)、负载可编程逻辑设备(Complex Programmable Logic Device,CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器、只读存储器、可擦除可编程只读存储器(ErasableProgrammable Read-Only Memory,EPROM)、快闪存储器、光纤、便捷式紧凑盘只读存储器(Compact Disk Read Only Memory,CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,阴极射线管(Cathode Ray Tube,CRT)或者液晶显示器(Liquid Crystal Display,LCD)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(Local Area Network,LAN)、广域网(Wide Area Network,WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (17)

1.一种资源处理方法,包括:
基于显卡的M个共享内存中每个进程占用的M种图形处理器GPU资源的情况,得到M个第一变量记录和N个第二变量记录;其中,所述M个第一变量记录中不同的第一变量记录为不同的共享内存中至少一个进程占用M种GPU资源的使用总量;所述N个第二变量记录中不同的第二变量记录为不同的共享内存中不同进程占用对应的GPU资源的使用量,M为大于1的整数,N为大于1的整数;
根据所述M个第一变量记录和所述N个第二变量记录,得到所述显卡的GPU资源使用值;其中,所述GPU资源使用值包括所有进程占用所述M种GPU资源的M个使用总量,和所述每个进程分别对每种GPU资源的使用量。
2.根据权利要求1所述的方法,还包括:
确定所述显卡的所述M种GPU资源对应的所述M个共享内存,所述M种GPU资源与所述M个共享内存一一对应;
确定所述M个共享内存对应的M个信号量,所述M个共享内存与所述M个信号量一一对应。
3.根据权利要求2所述的方法,其中,所述基于显卡的M个共享内存中每个进程占用的M种图形处理器GPU资源的情况,得到M个第一变量记录和N个第二变量记录,包括:
在第i个进程获得所述M个共享内存中的第j个共享内存的信号量的情况下,对所述第j个共享内存中所述第i个进程占用的第j个GPU资源的使用量进行记录,得到所述第j个共享内存的第一变量记录和第二变量记录,i为大于等于1的整数,j为大于等于1且小于等于M的整数。
4.根据权利要求1所述的方法,还包括:
基于每个进程占用所述显卡的所述M种GPU资源的情况,确定每个进程中M个原子变量的值。
5.根据权利要求4所述的方法,还包括:
响应于第i个进程对第j个共享内存对应的GPU资源的更新请求,在所述第i个进程中查找所述第j个共享内存对应的GPU资源所对应的原子变量;i为大于等于1的整数,j为大于等于1且小于等于M的整数;
基于所述更新请求所请求的占用所述第j个共享内存对应的GPU资源的使用量,对所述第j个共享内存对应的GPU资源所对应的原子变量的值进行更新操作。
6.根据权利要求5所述的方法,还包括:
基于所述第i个进程中对所述第j个共享内存对应的GPU资源所对应的原子变量的更新后的值,调整所述第j个共享内存中的第一变量记录和第二变量记录。
7.根据权利要求1所述的方法,还包括:
在所述M个共享内存中存在异常终止的进程的情况下,确定所述异常终止的进程所对应的所述M种GPU资源的使用量,从所述M个共享内存中去除所述异常终止的进程所对应的所述M种GPU资源的使用量。
8.一种资源处理装置,包括:
第一记录单元,用于基于显卡的M个共享内存中每个进程占用的M种图形处理器GPU资源的情况,得到M个第一变量记录和N个第二变量记录;其中,所述M个第一变量记录中不同的第一变量记录为不同的共享内存中至少一个进程占用M种GPU资源的使用总量;所述N个第二变量记录中不同的第二变量记录为不同的共享内存中不同进程占用对应的GPU资源的使用量,M为大于1的整数,N为大于1的整数;
统计单元,用于根据所述M个第一变量记录和所述N个第二变量记录,得到所述显卡的GPU资源使用值;其中,所述GPU资源使用值包括所有进程占用所述M种GPU资源的M个使用总量,和所述每个进程分别对每种GPU资源的使用量。
9.根据权利要求8所述的装置,还包括:
确定单元,用于确定所述显卡的所述M种GPU资源对应的所述M个共享内存,所述M种GPU资源与所述M个共享内存一一对应;确定所述M个共享内存对应的M个信号量,所述M个共享内存与所述M个信号量一一对应。
10.根据权利要求9所述的装置,其中,所述第一记录单元,用于:
在第i个进程获得所述M个共享内存中的第j个共享内存的信号量的情况下,对所述第j个共享内存中所述第i个进程占用的第j个GPU资源的使用量进行记录,得到所述第j个共享内存的第一变量记录和第二变量记录,i为大于等于1的整数,j为大于等于1且小于等于M的整数。
11.根据权利要求8所述的装置,还包括:
第二记录单元,用于基于每个进程占用所述显卡的所述M种GPU资源的情况,确定每个进程中M个原子变量的值。
12.根据权利要求11所述的装置,还包括:查找单元;其中,
所述查找单元,用于响应于第i个进程对第j个共享内存对应的GPU资源的更新请求,在所述第i个进程中查找所述第j个共享内存对应的GPU资源所对应的原子变量;i为大于等于1的整数,j为大于等于1且小于等于M的整数;
所述第二记录单元,还用于基于所述更新请求所请求的占用所述第j个共享内存对应的GPU资源的使用量,对所述第j个共享内存对应的GPU资源所对应的原子变量的值进行更新操作。
13.根据权利要求12所述的装置,还包括:
调整单元,用于基于所述第i个进程中对所述第j个共享内存对应的GPU资源所对应的原子变量的更新后的值,调整所述第j个共享内存中的第一变量记录和第二变量记录。
14.根据权利要求8所述的装置,还包括:
修正单元,用于在所述M个共享内存中存在异常终止的进程的情况下,确定所述异常终止的进程所对应的所述M种GPU资源的使用量,从所述M个共享内存中去除所述异常终止的进程所对应的所述M种GPU资源的使用量。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。
CN202111609044.0A 2021-12-23 2021-12-23 资源处理方法、装置、设备及存储介质 Pending CN114331804A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111609044.0A CN114331804A (zh) 2021-12-23 2021-12-23 资源处理方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111609044.0A CN114331804A (zh) 2021-12-23 2021-12-23 资源处理方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN114331804A true CN114331804A (zh) 2022-04-12

Family

ID=81012293

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111609044.0A Pending CN114331804A (zh) 2021-12-23 2021-12-23 资源处理方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN114331804A (zh)

Similar Documents

Publication Publication Date Title
CN112650576B (zh) 资源调度方法、装置、设备、存储介质及计算机程序产品
CN113641457A (zh) 容器创建方法、装置、设备、介质及程序产品
EP4113299A2 (en) Task processing method and device, and electronic device
US20230120580A1 (en) Access control method and apparatus for shared memory, electronic device and autonomous vehicle
CN111125057B (zh) 一种业务请求的处理方法、装置及计算机系统
CN113849312A (zh) 数据处理任务的分配方法、装置、电子设备及存储介质
EP4060496A2 (en) Method, apparatus, device and storage medium for running inference service platform
CN113590329A (zh) 资源处理方法及装置
CN112905314A (zh) 异步处理方法、装置、电子设备、存储介质、及路侧设备
CN114911598A (zh) 任务调度方法、装置、设备以及存储介质
CN113835887A (zh) 显存的分配方法、装置、电子设备及可读存储介质
CN115544044A (zh) 一种数据一致性保持方法、装置、设备和存储介质
CN115168040A (zh) 一种作业抢占调度方法、装置、设备和存储介质
US9513661B2 (en) Calibrated timeout interval on a configuration value, shared timer value, and shared calibration factor
CN114153614A (zh) 内存管理方法、装置、电子设备和自动驾驶车辆
US9405470B2 (en) Data processing system and data processing method
CN114331804A (zh) 资源处理方法、装置、设备及存储介质
CN113377295B (zh) 多生产者单消费者的数据存储和读取方法、装置、设备
CN115617451A (zh) 一种数据处理方法和数据处理装置
CN115390992A (zh) 一种虚拟机创建方法、装置、设备和存储介质
CN115617800A (zh) 数据读取方法、装置、电子设备及存储介质
CN114942833A (zh) 定时任务资源动态调度方法及相关装置
CN113986134A (zh) 存储数据的方法、读取数据的方法和装置
CN113204382A (zh) 数据处理方法、装置、电子设备以及存储介质
CN112884382A (zh) 云平台的资源配额管理方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination