CN114020454A - 一种内存管理方法、装置、设备及介质 - Google Patents
一种内存管理方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114020454A CN114020454A CN202111257276.4A CN202111257276A CN114020454A CN 114020454 A CN114020454 A CN 114020454A CN 202111257276 A CN202111257276 A CN 202111257276A CN 114020454 A CN114020454 A CN 114020454A
- Authority
- CN
- China
- Prior art keywords
- memory
- space
- spaces
- slice
- memory slice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000015654 memory Effects 0.000 title claims abstract description 266
- 238000007726 management method Methods 0.000 title claims abstract description 30
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 122
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 44
- 230000001133 acceleration Effects 0.000 claims abstract description 42
- 238000004364 calculation method Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 10
- 238000000034 method Methods 0.000 claims description 10
- 238000002955 isolation Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000005587 bubbling Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/023—Free address space management
- G06F12/0238—Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Memory System (AREA)
Abstract
本申请公开了一种内存管理方法、装置、设备及介质,包括:对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间;从全部所述内存切片空间中确定出公共内存切片空间;对全部所述公共内存切片空间进行统一地址空间编址,得到相应的编址空间;在执行人工智能算法计算任务时,将人工智能算法模型部署于所述编址空间,以便各处理器访问所述编址空间中相应的公共内存切片空间,完成所述人工智能算法计算任务。能够突破AI异构加速设备间的内存物理隔离限制,提高异构加速计算系统的计算资源和内存资源利用效率。
Description
技术领域
本申请涉及存储技术领域,特别涉及一种内存管理方法、装置、设备及介质。
背景技术
随着数据集规模的增加和模型的日趋复杂,AI(即Artificial Intelligence,人工智能)网络模型的计算成本越来越高,算力作为承载人工智能应用的平台和基础,其发展推动了整个人工智能系统的进步和快速演进,是人工智能最核心的要素之一。以解决人工智能应用计算系统的新型混合异构计算体系结构已成为国内外工业界和学术界共同角逐的热点。面向人工智能算法应用加速的异构加速器层出不穷,例如GPU(即graphicsprocessing unit,图形处理器)、FPGA(即Field Programmable Gate Array,现场可编程逻辑门阵列))、TPU(即tensor processing unit,张量处理器)及各种定制化AI加速器等异构设备的发展为AI场景应用提供了多样性的底层硬件支持。
随着AI应用场景的复杂性提高,以及定制化AI异构加速器往往面向特定计算场景进行适配优化,人工智能应用对混合异构计算系统提出了需求。为了提高人工智能计算系统的能效,在单一服务器系统中同时集成具有不同计算特性的AI异构加速设备,在同一种复杂AI应用场景种采用不同的AI加速器分别负责不同的计算任务,通过构建高效的超异构计算系统,实现在同一个人工智能计算系统中不同AI异构加速设备之间的高效协同。虽然不同的AI加速器均提供了高容量的板载内存,但由于不同AI异构加速器设备之间存在物理隔离,无法实现不同架构AI异构计算架构之间的内存共享,导致人工智能算法模型在部署时往往受限于单个AI加速器设备的板载内存空间大小限制,目前的方式主要是采用模型并行的方式,将较大规模的AI算法模型在网络结构上进行拆分,通过将模型的不同模块分别部署在不同的AI加速器板载内存上,实现模型的训练与推理,然后采用模型并行流水执行的方式提高系统的运行效率,但是由于无法充分消除流水阶段之间的冒泡,仍会在一定程度上造成计算资源的浪费。
发明内容
有鉴于此,本申请的目的在于提供一种内存管理方法、装置、设备及介质,能够突破AI异构加速设备间的内存物理隔离限制,提高异构加速计算系统的计算资源和内存资源利用效率。
第一方面,本申请公开了一种内存管理方法,包括:
对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间;
从全部所述内存切片空间中确定出公共内存切片空间;
对全部所述公共内存切片空间进行统一地址空间编址,得到相应的编址空间;
在执行人工智能算法计算任务时,将人工智能算法模型部署于所述编址空间,以便各处理器访问所述编址空间中相应的公共内存切片空间,完成所述人工智能算法计算任务。
可选的,所述从全部所述内存切片空间中确定出公共内存切片空间,包括:
分别将所述主机端对应的全部内存切片空间、各所述AI加速器设备的板载内存对应的全部内存切片空间中的指定内存切片空间确定为私有内存切片空间;
将全部非指定内存切片空间确定为公共内存切片空间。
可选的,对异构加速计算系统中的各AI加速器设备的板载内存分别进行切片处理,包括:
对异构加速计算系统中的所有AI加速器设备进行遍历,对遍历到的各AI加速器设备的板载内存分别进行切片处理。
可选的,所述异构加速计算系统中,所有所述AI加速器设备基于PCIe接口挂载至所述主机端中。
可选的,所述异构加速计算系统中包括不同架构的所述AI加速器设备。
可选的,所述对异构加速计算系统的主机端内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间,包括:
根据预设切片空间大小对异构加速计算系统的主机端内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间。
可选的,还包括:
当检测到所述异构加速计算系统中挂载了新的AI加速器设备,则对所述新的AI加速器设备的板载内存进行切片处理,得到新增内存切片空间;
从所述新增内存切片空间内存中确定出新增公共内存切片空间;
基于所述新增公共内存切片空间更新所述编址空间,得到新的编址空间。
第二方面,本申请公开了一种内存管理装置,包括:
内存切片处理模块,用于对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间;
公共内存切片空间确定模块,用于从全部所述内存切片空间中确定出公共内存切片空间;
统一编址模块,用于对全部所述公共内存切片空间进行统一地址空间编址,得到相应的编址空间;
智能算法计算任务执行模块,用于在执行人工智能算法计算任务时,将人工智能算法模型部署于所述编址空间,以便各处理器访问所述编址空间中相应的公共内存切片空间,完成所述人工智能算法计算任务。
第三方面,本申请公开了一种电子设备,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现前述的内存管理方法。
第四方面,本申请公开了一种计算机可读存储介质,用于保存计算机程序,所述计算机程序被处理器执行时实现前述的内存管理方法。
可见,本申请先对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间,之后从全部所述内存切片空间中确定出公共内存切片空间,然后对全部所述公共内存切片空间进行统一地址空间编址,得到相应的编址空间,在执行人工智能算法计算任务时,将人工智能算法模型部署于所述编址空间,以便各处理器访问所述编址空间中相应的公共内存切片空间,完成所述人工智能算法计算任务。也即,本申请先将异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,然后从中确定出公共内存切片空间,对公共内存切片空间进行统一编址,得到统一的编址空间,将人工智能算法模型部署于该编址空间,各处理器访问便编址空间中相应的公共内存切片空间,完成计算任务,这样,对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存进行统一编址管理,实现异构加速计算系统的内存资源池化,能够突破AI异构加速设备间的内存物理隔离限制,提高异构加速计算系统的计算资源和内存资源利用效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请公开的一种内存管理方法流程图;
图2为本申请公开的一种异构加速计算系统的架构图;
图3为本申请公开的一种具体的内存切片示意图;
图4为本申请公开的一种内存管理装置结构示意图;
图5为本申请公开的一种电子设备结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在现有的人工智能计算系统中,由于不同AI异构加速器设备之间存在物理隔离,无法实现不同架构AI异构计算架构之间的内存共享,导致人工智能算法模型在部署时往往受限于单个AI加速器设备的板载内存空间大小限制,传统的模型并行流水方式由于天然的冒泡无法充分提高系统整体的效率。为此,本申请提供了一种内存管理方案,能够突破AI异构加速设备间的内存物理隔离限制,提高异构加速计算系统的计算资源和内存资源利用效率。
参见图1所示,本申请实施例公开了一种内存管理方法,包括:
步骤S11:对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间。
在具体的实施方式中,可以对异构加速计算系统中的所有AI加速器设备进行遍历,对遍历到的各AI加速器设备的板载内存分别进行切片处理。
其中,所述异构加速计算系统中包括不同架构的所述AI加速器设备。
并且,所述异构加速计算系统中,所有所述AI加速器设备基于PCIe(即peripheralcomponent interconnect express,一种高速串行计算机扩展总线标准)接口挂载至所述主机端中。
也即,本实施例中通过PCIe接口实现了所有AI加速器设备通过PCIe接口挂载在主机,实现了统一的标准互联。
步骤S12:从全部所述内存切片空间中确定出公共内存切片空间。
在具体的实施方式中,可以分别将所述主机端对应的全部内存切片空间、各所述AI加速器设备的板载内存对应的全部内存切片空间中的指定内存切片空间确定为私有内存切片空间;将全部非指定内存切片空间确定为公共内存切片空间。
其中,私有内存切片空间,只能被本地的处理器进行访问,也即,任一AI加速器设备上的板载内存的私有内存切片空间,只能由该AI加速器设备上的AI芯片访问,主机端中的私有内存切片空间只能被主机端的CPU(即central processing unit,中央处理器)访问。公共内存切片空间切片,可以被系统中所有的处理器访问。
在具体的实施方式中,可以根据预设切片空间大小对异构加速计算系统的主机端内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间。
其中,预设切片空间大小可以根据实际场景确定,在此不做限制。
步骤S13:对全部所述公共内存切片空间进行统一地址空间编址,得到相应的编址空间。
步骤S14:在执行人工智能算法计算任务时,将人工智能算法模型部署于所述编址空间,以便各处理器访问所述编址空间中相应的公共内存切片空间,完成所述人工智能算法计算任务。
本申请提供的内存管理方法可以应用于异构加速计算系统的主机端。
进一步的,当检测到所述异构加速计算系统中挂载了新的AI加速器设备,则对所述新的AI加速器设备的板载内存进行切片处理,得到新增内存切片空间;
从所述新增内存切片空间内存中确定出新增公共内存切片空间;
基于所述新增公共内存切片空间更新所述编址空间,得到新的编址空间。
可见,本申请先对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间,之后从全部所述内存切片空间中确定出公共内存切片空间,然后对全部所述公共内存切片空间进行统一地址空间编址,得到相应的编址空间,在执行人工智能算法计算任务时,将人工智能算法模型部署于所述编址空间,以便各处理器访问所述编址空间中相应的公共内存切片空间,完成所述人工智能算法计算任务。也即,本申请先将异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,然后从中确定出公共内存切片空间,对公共内存切片空间进行统一编址,得到统一的编址空间,将人工智能算法模型部署于该编址空间,各处理器访问便编址空间中相应的公共内存切片空间,完成计算任务,这样,对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存进行统一编址管理,实现异构加速计算系统的内存资源池化,能够突破AI异构加速设备间的内存物理隔离限制,提高异构加速计算系统的计算资源和内存资源利用效率。
参见图2所示,本图2为本申请实施例公开的一种异构加速计算系统的架构图,所有的AI异构加速器设备采用PCIe接口挂载在服务器中,也即挂载在主机端,在服务器系统的AI加速器列表Device(设备){1,2,3,…,n}中,其中,Device n用Device#表示,同时支持不同架构的AI加速器设备,主机端CPU设备可以采用PCIe总线接口实现对AI加速器设备的板载内存访问。
相应的,本申请实施例公开的一种具体的内存管理方法,包括:
步骤01:针对Host(即主机端)的内存进行切片,划分成m个内存切片空间:{H1,H2,H3,...H#},其中,将H1切片确定为私有内存切片空间,其余为公共内存切片空间。
步骤02:对主机系统所有的AI加速器设备进行遍历,针对所有AI加速器设备{D1,D2,D3,…,D#}的板载内存进行切片,均划分成k个内存切片空间:{M1,M2,M3,…,M#},其中,任一AI加速器设备中,M1切片为私有内存切片空间,其余为公共内存切片空间。
例如,参见图3所示,图3为本申请实施例公开的一种具体的内存切片示意图。其次,对每个AI加速器的板载内存和主机端的内存进行切片,、切分后的内存空间包含私有内存切片空间和公共内存切片空间,内存切片空间,只能被本地的处理器进行访问,例如Device1(即D1)设备上的M1板载内存切片,只能由Device1加速器上的AI芯片访问,主机端中的H1内存切片只能被主机端的CPU访问。公共内存切片空间,可以被系统中所有的处理器之间访问。
步骤03:对公共内存切片空间进行统一地址空间编址,编址空间为Mem_Addr{H2,…,H#,D1:M2,D1:M3,…,D1:M#,D2:M2,D2:M3,…,D2:M#,…,D#:M#}。
步骤04:将人工智能算法模型部署在公共内存切片空间的统一编址空间,在实际计算过程中,主机端CPU和各种AI处理器按需访问内存切片中的数据。
也即,本申请实施例对异构加速计算系统中主机端以及所有AI加速器设备上的公共内存切片空间进行统一编址,在主机端维护系统内存切片的统一编址空间,并基于统一编址空间,实现支持混合异构加速的超异构计算系统内存资源池化,面向人工智能算法应用的计算任务时,将AI算法模型统一部署在池化后的内存地址空间,所有的AI异构加速器设备和主机端CPU在进行计算时,按照需求访问不同地址的内存切片数据。这样,对异构加速计算系统中的所有内存进行统一管理,对板载内存空间和主机内存空间进行切片,实现AI异构加速器设备板载内存的资源池化,实现跨AI计算加速器设备的内存访问,突破了AI板载内存容量对AI算法模型规模大小的限制,提高了超异构计算系统的计算资源与内存资源使用效率,降低异构加速计算系统的运维成本。
参见图4所示,本申请实施例公开了一种内存管理装置,包括:
内存切片处理模块11,用于对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间;
公共内存切片空间确定模块12,用于从全部所述内存切片空间中确定出公共内存切片空间;
统一编址模块13,用于对全部所述公共内存切片空间进行统一地址空间编址,得到相应的编址空间;
智能算法计算任务执行模块14,用于在执行人工智能算法计算任务时,将人工智能算法模型部署于所述编址空间,以便各处理器访问所述编址空间中相应的公共内存切片空间,完成所述人工智能算法计算任务。
可见,本申请先对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间,之后从全部所述内存切片空间中确定出公共内存切片空间,然后对全部所述公共内存切片空间进行统一地址空间编址,得到相应的编址空间,在执行人工智能算法计算任务时,将人工智能算法模型部署于所述编址空间,以便各处理器访问所述编址空间中相应的公共内存切片空间,完成所述人工智能算法计算任务。也即,本申请先将异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,然后从中确定出公共内存切片空间,对公共内存切片空间进行统一编址,得到统一的编址空间,将人工智能算法模型部署于该编址空间,各处理器访问便编址空间中相应的公共内存切片空间,完成计算任务,这样,对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存进行统一编址管理,实现异构加速计算系统的内存资源池化,能够突破AI异构加速设备间的内存物理隔离限制,提高异构加速计算系统的计算资源和内存资源利用效率。
其中,公共内存切片空间确定模块12,具体用于分别将所述主机端对应的全部内存切片空间、各所述AI加速器设备的板载内存对应的全部内存切片空间中的指定内存切片空间确定为私有内存切片空间;将全部非指定内存切片空间确定为公共内存切片空间。
并且,内存切片处理模块11,具体用于对异构加速计算系统中的所有AI加速器设备进行遍历,对遍历到的各AI加速器设备的板载内存分别进行切片处理。
所述异构加速计算系统中,所有所述AI加速器设备基于PCIe接口挂载至所述主机端中。
并且,所述异构加速计算系统中包括不同架构的所述AI加速器设备。
内存切片处理模块11,具体用于根据预设切片空间大小对异构加速计算系统的主机端内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间。
进一步的,所述装置还包括:新增挂载检测模块,用于检测所述异构加速计算系统中是否挂载了新的AI加速器设备。
相应的,内存切片处理模块11,用于当新增挂载检测模块检测到所述异构加速计算系统中挂载了新的AI加速器设备,则对所述新的AI加速器设备的板载内存进行切片处理,得到新增内存切片空间;
公共内存切片空间确定模块12,具体用于从所述新增内存切片空间内存中确定出新增公共内存切片空间;
统一编址模块,具体用于基于所述新增公共内存切片空间更新所述编址空间,得到新的编址空间。
参见图5所示,本申请实施例公开了一种电子设备20,包括处理器21和存储器22;其中,所述存储器22,用于保存计算机程序;所述处理器21,用于执行所述计算机程序,前述实施例公开的内存管理方法。
关于上述内存管理方法的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
并且,所述存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,存储方式可以是短暂存储或者永久存储。
另外,所述电子设备20还包括电源23、通信接口24、输入输出接口25和通信总线26;其中,所述电源23用于为所述电子设备20上的各硬件设备提供工作电压;所述通信接口24能够为所述电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;所述输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
进一步的,本申请实施例还公开了一种计算机可读存储介质,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现前述实施例公开的内存管理方法。
关于上述内存管理方法的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的一种内存管理方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种内存管理方法,其特征在于,包括:
对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间;
从全部所述内存切片空间中确定出公共内存切片空间;
对全部所述公共内存切片空间进行统一地址空间编址,得到相应的编址空间;
在执行人工智能算法计算任务时,将人工智能算法模型部署于所述编址空间,以便各处理器访问所述编址空间中相应的公共内存切片空间,完成所述人工智能算法计算任务。
2.根据权利要求1所述内存管理方法,其特征在于,所述从全部所述内存切片空间中确定出公共内存切片空间,包括:
分别将所述主机端对应的全部内存切片空间、各所述AI加速器设备的板载内存对应的全部内存切片空间中的指定内存切片空间确定为私有内存切片空间;
将全部非指定内存切片空间确定为公共内存切片空间。
3.根据权利要求1所述的内存管理方法,其特征在于,对异构加速计算系统中的各AI加速器设备的板载内存分别进行切片处理,包括:
对异构加速计算系统中的所有AI加速器设备进行遍历,对遍历到的各AI加速器设备的板载内存分别进行切片处理。
4.根据权利要求1所述的内存管理方法,其特征在于,所述异构加速计算系统中,所有所述AI加速器设备基于PCIe接口挂载至所述主机端中。
5.根据权利要求1所述的内存管理方法,其特征在于,所述异构加速计算系统中包括不同架构的所述AI加速器设备。
6.根据权利要求1所述的内存管理办法,其特征在于,所述对异构加速计算系统的主机端内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间,包括:
根据预设切片空间大小对异构加速计算系统的主机端内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间。
7.根据权利要求1所述的内存管理方法,其特征在于,还包括:
当检测到所述异构加速计算系统中挂载了新的AI加速器设备,则对所述新的AI加速器设备的板载内存进行切片处理,得到新增内存切片空间;
从所述新增内存切片空间内存中确定出新增公共内存切片空间;
基于所述新增公共内存切片空间更新所述编址空间,得到新的编址空间。
8.一种内存管理装置,其特征在于,包括:
内存切片处理模块,用于对异构加速计算系统的主机端的内存和各AI加速器设备的板载内存分别进行切片处理,得到相应的内存切片空间;
公共内存切片空间确定模块,用于从全部所述内存切片空间中确定出公共内存切片空间;
统一编址模块,用于对全部所述公共内存切片空间进行统一地址空间编址,得到相应的编址空间;
智能算法计算任务执行模块,用于在执行人工智能算法计算任务时,将人工智能算法模型部署于所述编址空间,以便各处理器访问所述编址空间中相应的公共内存切片空间,完成所述人工智能算法计算任务。
9.一种电子设备,其特征在于,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现如权利要求1至7任一项所述的内存管理方法。
10.一种计算机可读存储介质,其特征在于,用于保存计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的内存管理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111257276.4A CN114020454A (zh) | 2021-10-27 | 2021-10-27 | 一种内存管理方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111257276.4A CN114020454A (zh) | 2021-10-27 | 2021-10-27 | 一种内存管理方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114020454A true CN114020454A (zh) | 2022-02-08 |
Family
ID=80058333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111257276.4A Pending CN114020454A (zh) | 2021-10-27 | 2021-10-27 | 一种内存管理方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114020454A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116028232A (zh) * | 2023-02-27 | 2023-04-28 | 浪潮电子信息产业股份有限公司 | 跨机柜服务器内存池化方法、装置、设备、服务器及介质 |
-
2021
- 2021-10-27 CN CN202111257276.4A patent/CN114020454A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116028232A (zh) * | 2023-02-27 | 2023-04-28 | 浪潮电子信息产业股份有限公司 | 跨机柜服务器内存池化方法、装置、设备、服务器及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108416433B (zh) | 一种基于异步事件的神经网络异构加速方法和系统 | |
US20220391260A1 (en) | Method and Apparatus for Creating Container, Device, Medium, and Program Product | |
US10061622B2 (en) | Updating memory topology information for virtual machines | |
US20140245295A1 (en) | Providing Dynamic Topology Information in Virtualized Computing Environments | |
RU2010132155A (ru) | Управление программами-компонентами в служебном приложении | |
CN103473115B (zh) | 虚拟机放置方法和装置 | |
CN114356587B (zh) | 算力任务跨区域调度方法、系统及设备 | |
CN106168993B (zh) | 电网实时仿真分析系统 | |
WO2023207035A1 (zh) | 一种数据同步方法、装置、设备及存储介质 | |
CN103414767A (zh) | 将应用软件部署在云计算平台上的方法和装置 | |
CN109426544A (zh) | 虚拟机部署方法和装置 | |
US8768680B2 (en) | Simulator of multi-core system employing reconfigurable processor cores and method of simulating multi-core system employing reconfigurable processor cores | |
CN113162802A (zh) | 基于InfiniBand的通信方法、设备及存储介质 | |
KR102320324B1 (ko) | 쿠버네티스 환경에서의 이종 하드웨어 가속기 활용 방법 및 이를 이용한 장치 | |
CN114020454A (zh) | 一种内存管理方法、装置、设备及介质 | |
CN110837419B (zh) | 基于弹性批处理的推理引擎系统、方法及电子设备 | |
CN109324899B (zh) | 基于PCIe池化硬件资源的编址方法、装置及主控节点 | |
CN115136127A (zh) | 分布式编译缓存方法及系统 | |
CN112860506A (zh) | 监控数据的处理方法、装置、系统和存储介质 | |
Becker et al. | A many-core based execution framework for IEC 61131-3 | |
CN117632457A (zh) | 一种加速器调度方法及相关装置 | |
Sha et al. | Performance modeling of openstack cloud computing platform using performance evaluation process algebra | |
KR102692866B1 (ko) | 컴퓨팅 자원 분할 운용 방법 및 장치 | |
CN114741165A (zh) | 数据处理平台的处理方法、计算机设备及存储装置 | |
TW202315360A (zh) | 微服務分配方法、電子設備及儲存介質 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |