CN114780230A - 一种内存分配方法、部署方法及相关装置 - Google Patents

一种内存分配方法、部署方法及相关装置 Download PDF

Info

Publication number
CN114780230A
CN114780230A CN202210242722.2A CN202210242722A CN114780230A CN 114780230 A CN114780230 A CN 114780230A CN 202210242722 A CN202210242722 A CN 202210242722A CN 114780230 A CN114780230 A CN 114780230A
Authority
CN
China
Prior art keywords
operator
memory
operators
dependent
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210242722.2A
Other languages
English (en)
Inventor
杨海亮
谷涛
刘洋
陈欣
李启璋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orbbec Inc
Original Assignee
Orbbec Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orbbec Inc filed Critical Orbbec Inc
Priority to CN202210242722.2A priority Critical patent/CN114780230A/zh
Priority to PCT/CN2022/100632 priority patent/WO2023168855A1/zh
Publication of CN114780230A publication Critical patent/CN114780230A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种内存分配方法、部署方法及相关装置,方法包括确定所述网络模型中各算子的执行顺序、算子内存、对应的依赖算子及局部内存共享算子;根据算子内存及执行顺序选取目标算子;根据目标算子的局部内存共享算子的依赖算子为目标算子及目标算子的输入算子分配内存。本申请通过获取各算子的依赖算子及局部内存共享算子,基于局部内存共享算子的依赖算子为算子及算子的输入算子分配内存,并控制可复用其输入算子的算子复用其输入算子的算子内存,减少了网络模型所需的内存资源。同时,当在线使用网络模型时,将复用输入算子的算子内存的算子从网络模型中剔除,这样可以减少网络模型执行过程中的数据搬运次数,提高网络模型的推理速度。

Description

一种内存分配方法、部署方法及相关装置
技术领域
本申请涉及人工智能技术领域,特别涉及一种内存分配方法、部署方法及相关装置。
背景技术
近几年,基于移动端的深度学习推理框架成为机器学习中重点研究方向,各大厂商纷纷推出了相应的推理框架,如,腾讯的NCNN、TNN,阿里的MNN,百度的MDL,谷歌的TFLite等等。但是,由于嵌入式设备会受内存资源的限制,使得应用于嵌入式设备的深度学习推理框架会受到内存资源的限制,从而影响深度学习推理框架在嵌入式设备上的应用。
因而现有技术还有待改进和提高。
发明内容
本申请要解决的技术问题在于,针对现有技术的不足,提供一种内存分配方法、部署方法及相关装置。
为了解决上述技术问题,本申请实施例第一方面提供了一种内存分配方法,所述的方法包括:
获取预设的网络模型,确定所述网络模型中各算子的执行顺序、算子内存、对应的依赖算子及局部内存共享算子,其中,所述依赖算子不复用所述算子内存,所述局部内存共享算子复用所述算子内存;
根据所述算子内存以及所述执行顺序,在所述网络模型的各未分配算子内存的参照算子中选取目标算子;
读取所述目标算子的所述局部内存共享算子的依赖算子;
根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存;
在一个实现方式中,所述方法还包括:继续执行根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子的步骤,直至所述网络模型中的每个算子均分配算子内存。
在一个实现方式中,所述根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存具体包括:
当所述目标算子为不可剔除算子时,基于所述依赖算子为所述目标算子分配算子内存;
当所述目标算子为可剔除算子时,为所述目标算子分配与其输入算子的算子内存相同的算子内存;
当所述目标算子为合并算子时,基于所述依赖算子为所述目标算子分配算子内存,并且按照执行顺序依次为所述目标算子的输入算子分配算子内存。
在一个实现方式中,所述基于所述依赖算子为所述目标算子分配算子内存具体包括:
检测所述依赖算子中是否存在已分配算子内存的目标依赖算子;
当存在目标依赖算子时,为所述目标算子分配与所述目标依赖算子的算子内存不重叠的算子内存;
当未存在目标依赖算子时,将位置0作为所述目标算子的起始位置,从所述起始位置开始为所述目标算子分配算子内存。
在一个实现方式中,所述根据所述算子内存以及所述执行顺序,在所述网络模型的各未分配算子内存的参照算子中选取目标算子具体包括:
在所述网络模型的各未分配算子内存的参照算子中选取算子内存最大的参照算子;
当所述算子内存最大的参照算子为多个时,将按照执行顺序将位于最前的算子内存最大的参照算子作为目标算子。
在一个实现方式中,所述依赖算子的确定过程具体包括:
对于所述网络模型中的每个算子,按照执行顺序在位于所述算子之前的算子以及所述算子中选取所述算子对应的第一依赖算子,以得到各算子各自对应的第一依赖算子;
对于所述网络模型中的每个算子,按照执行顺序在位于所述算子之后的各算子中选取第二依赖算子,其中,第二依赖算子对应的第一依赖算子包含所述算子;
将选取到的第一依赖算子以及第二依赖算子作为所述算子对应的依赖算子,以得到各算子对应的依赖算子。
在一个实现方式中,所述按照执行顺序在位于所述算子之前的算子以及所述算子中选取所述算子对应的第一依赖算子具体包括:
获取按照执行顺序位于所述算子之前的候选算子;
基于所述算子的算子特征在获取到的候选算子中选取所述算子对应的第一候选依赖算子,其中,所述第一候选依赖算子的输出项为所述算子的输入项;
在除所述第一候选依赖算子外的候选算子中选取算子内存未回收的第二候选依赖算子;
将所述算子、选取到的第一候选依赖算子和第二候选依赖算子,作为所述算子对应的第一依赖算子。
在一个实现方式中,所述局部内存共享算子的确定过程具体包括:
对于所述网络模型中的每个算子,按照执行顺序在位于所述算子之后的算子中选取复用所述算子的算子内存的第一局部内存共享算子;
按照执行顺序在位于所述算子之前的算子中选取被所述算子复用算子内存的第二局部内存共享算子;
将所述算子、选取到的第一局部内存共享算子以及第二局部内存共享算子作为所述算子对应的局部内存共享算子,以得到各算子对应的局部内存共享算子。
本申请实施例第二方面提供了一种内存分配装置,所述的内存分配装置包括:
确定模块,获取预设的网络模型,确定所述网络模型中各算子的执行顺序、算子内存、对应的依赖算子及局部内存共享算子,其中,所述依赖算子不复用所述算子内存,所述局部内存共享算子复用所述算子内存;
选取模块,用于根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子;
读取模块,用于读取所述目标算子的所述局部内存共享算子的依赖算子;
分配模块,用于根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存;
执行模块,用于继续执行根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子的步骤,直至所述网络模型中的每个算子均分配算子内存。
本申请实施例第三方面提供了一种网络模型的部署方法,所述的方法包括:
将网络模型部署于目标设备,并在离线模型上采用如上所述的内存分配方法为所述网络模型的各算子分配算子内存;
将所述网络模型中复用输入算子的算子内存的算子剔除,并采用剔除后的网络模型进行在线推理。
本申请实施例第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上所述的内存分配方法中的步骤,和/或以实现如上所述的网络模型的部署方法。
本申请实施例第五方面提供了一种终端设备,其包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如上所述的内存分配方法中的步骤,和/或实现如上所述的网络模型的部署方法。
有益效果:与现有技术相比,本申请提供了一种内存分配方法、部署方法及相关装置,方法包括获取预设的网络模型,确定所述网络模型中各算子的执行顺序、算子内存、对应的依赖算子及局部内存共享算子;根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子;读取所述目标算子的所述局部内存共享算子的依赖算子;根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存;继续执行根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子的步骤,直至所述网络模型中的每个算子均分配算子内存。本申请通过获取各算子的依赖算子及局部内存共享算子,并基于局部内存共享算子的依赖算子为算子以及算子的输入算子分配内存,并控制可复用其输入算子的算子复用其输入算子的算子内存,减少了网络模型所需的内存资源。同时,当在线使用网络模型时,将复用输入算子的算子内存的算子从网络模型中剔除,这样可以减少网络模型执行过程中的数据搬运次数,提高网络模型的推理速度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员而言,在不符创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请提供的内存分配方法的流程图。
图2为本申请提供的内存分配方法的网络模型的一个示例图。
图3为图2所示的网络模型中的各算子的第一依赖算子的示意图。
图4为图2所示的网络模型中的各算子的依赖算子的示意图。
图5为图2所示的网络模型中的各算子的第一局部内存共享算子的示意图。
图6为图2所示的网络模型中的各算子的局部内存共享算子的示意图。
图7为图2所示的网络模型中Concat、Conv0、Conv2和Conv3分配算子内存的示意图。
图8为图2所示的网络模型中Conv4分配算子内存的示意图。
图9为图2所示的网络模型中Input和Split0分配算子内存的示意图。
图10为图2所示的网络模型中Conv1和Split分配算子内存的示意图。
图11为本申请提供的内存分配方法的网络模型的一个示例图。
图12为通过本申请提供的内存分配方法为图11中的各算子分配算子内存的示意图。
图13为通过现有内存分配方法为图11中的各算子分配算子内存的示意图。
图14为本申请提供内存分配装置的结构原理图。
图15为本申请提供的终端设备的结构原理图。
具体实施方式
本申请提供一种内存分配方法、部署方法及相关装置,为使本申请的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本申请进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
应理解,本实施例中各步骤的序号和大小并不意味着执行顺序的先后,各过程的执行顺序以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
发明人经过研究发现,近几年,基于移动端的深度学习推理框架成为机器学习中重点研究方向,各大厂商纷纷推出了相应的推理框架,如,腾讯的NCNN、TNN,阿里的MNN,百度的MDL,谷歌的TF Lite等等。但是,由于嵌入式设备会受内存资源的限制,使得应用于嵌入式设备的深度学习推理框架会受到内存资源的限制,从而影响深度学习推理框架在嵌入式设备上的应用。
为了解决上述问题,在本申请实施例中,获取预设的网络模型,确定所述网络模型中各算子的执行顺序、算子内存、对应的依赖算子及局部内存共享算子;根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子;读取所述目标算子的所述局部内存共享算子的依赖算子;根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存;继续执行根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子的步骤,直至所述网络模型中的每个算子均分配算子内存。本申请实施例通过获取各算子的依赖算子及局部内存共享算子,并基于局部内存共享算子的依赖算子为算子以及算子的输入算子分配内存,并控制可复用其输入算子的算子复用其输入算子的算子内存,减少了网络模型所需的内存资源。同时,当在线使用网络模型时,将复用输入算子的算子内存的算子从网络模型中剔除,这样可以减少网络模型执行过程中的数据搬运次数,提高网络模型的推理速度。
下面结合附图,通过对实施例的描述,对申请内容作进一步说明。
本实施例提供的一种内存分配方法,所述内存分配方法可以应用于深度学习推理框架,以优化深度学习推理框架所需的内存资源,降低内存资源对深度学习推理框架的限制,从而可以提高深度学习推理框架的应用范围。例如,当深度学习推理框架进行内存优化后,可以避免嵌入式设备的内存资源对深度学习推理框架的限制,使得深度学习推理框架可以被广泛应用于嵌入式设备内。在一个实现方式中,所述内存分配方法可以用于采用深度学习推理框架的网络模型上,并在离线模型采用本实施例提供的内存分配方法为网络模型中的各算子分配内存算子。
本实施例提供了一种内存分配方法,如图1所示,所述方法包括:
S10、获取预设的网络模型,确定所述网络模型中各算子的执行顺序、算子内存、对应的依赖算子及局部内存共享算子。
具体地,网络模型为深度学习推理框架,网络模型包括若干算子,若干算子中的每个算子均对应有执行顺序,其中,执行顺序用于反映算子在网络模型推理过程中的执行顺序,算子的执行顺序越靠前,算子越先被执行。例如,网络模型为如图2所示的网络模型,网络模型中的Input算子的执行顺序为1,Split0算子的执行顺序为2,Input算子先于Split0算子被执行。算子所需的算子内存为执行算子时所需的内存空间,例如,网络模型为如图11所示的网络模型,网络模型中的Input算子所需的算子内存为40,Conv2D算子的所需的算子内存为80。
依赖算子为基于算子间的依赖关系确定的,依赖算子不复用算子内存。假设网络模型中有算子A,算子A的依赖算子为基于算子间的依赖关系确定的,算子A的依赖算子包括于网络模型中,并且依赖算子不复用算子A的算子内存。可以理解的是,在为算子A的依赖算子分配算子内存时,不可以将算子A的算子内存分配给算子A的依赖算子。在一个实现方式中,依赖关系的建议原则为:1)、网络模型中的算子A对算子A具有依赖关系;
2)、当网络模型中的算子A的输入项和输出项不可以共享内存,且算子A执行算子计算时需要依赖网络模型中算子B的算子内存时,算子A和算子B具有依赖关系;3)、算子A与在算子A被执行计算时未被回收算子内存的算子C具有依赖关系。
在本发明的一个实施例中,各算子的依赖算子的确定过程具体可以包括如下步骤:
S11、对于所述网络模型中的每个算子,按照执行顺序在位于所述算子之前的算子以及所述算子中选取所述算子对应的第一依赖算子,以得到各算子各自对应的第一依赖算子;
S12、对于所述网络模型中的每个算子,按照执行顺序在位于所述算子之后的各算子中选取第二依赖算子,其中,第二依赖算子对应的第一依赖算子包含所述算子;
S13、将选取到的第一依赖算子以及第二依赖算子作为所述算子的依赖算子,以得到各算子对应的依赖算子。
具体地,在所述步骤S11中,假设网络模型包括算子A,算子A对应的第一依赖算子按照执行顺序位于算子A之前,算子A的算子内存依赖于算子A对应的第一依赖算子,换句话说,算子A自身的执行过程需要使用算子A依赖的第一依赖算子的算子内存中所存储的数据。例如,如图2所示的网络模型中,Conv0算子的第一依赖算子包括Conv0算子和Split0算子,那么Conv0算子的算子内存依赖Conv0算子的算子内存和Split0算子的算子内存。可以理解的是,在执行Conv0算子时,Conv0算子自身的推理过程需要使用其依赖的Conv0算子和Split0算子的算子内存中所存储的数据,从而不可以复用其对应的Conv0算子和Split0算子的算子内存。
在本实施例的一个实现方式中,所述按照执行顺序在位于所述算子之前的算子以及所述算子中选取所述算子对应的第一依赖算子具体包括:
获取按照执行顺序位于所述算子之前的候选算子;
基于所述算子的算子特征在获取到的候选算子中选取所述算子对应的第一候选依赖算子,其中,所述第一候选依赖算子的输出项为所述算子的输入项;
在除所述第一候选依赖算子外的候选算子中选取算子内存未回收的第二候选依赖算子;
将所述算子、选取到的第一候选依赖算子和第二候选依赖算子,作为所述算子对应的第一依赖算子。
具体地,假设网络模型包括算子A,算子A的候选算子指的是按照执行顺序位于算子A之前的所有算子,其中,候选算子可以为空,可以为1个,也可以为多个。例如,如图2所示的网络模型中,Input算子的候选算子为空,Split0算子的候选算子为1个,Conv0算子的候选算子为2个。
算子特征用于反映算子的计算方式,通过计算方式可以确定算子A的输入项和输出项是否可以共享内存,进而确定算子A的依赖算子。其中,当算子A的输入项和输出项可以共享内存时,算子A执行时不需要依赖输出算子A的输入项的候选算子;当算子A的输入项和输出项不可以共享内存时,算子A执行是需要依赖输出算子A的输入项的候选算子,例如:卷积算子对输出卷积算子输入项的上算子存在依赖关系,VPU算子和软件算子对输出算子输入项的算子不存在依赖关系。也就是说,在获取到算子A的算子特征后,基于算子特征来检测算子A的输入项和输出项是否可以共享内存,然后基于检测结果在候选算子中选取算子A对应的第一候选依赖算子,因此,算子A与其对应的第一候选依赖算子不可以共享内存。例如,如图2所示的网络模型中,Conv0算子的每一个输出项都与每一个输入项有关,从而Conv0算子的输入项和输出项不可以共享内存,从而输出Conv0算子的输入项的Split0算子为Conv0算子的第一候选依赖算子。
算子A的第二候选依赖算子指的是在执行算子A时,第二候选依赖算子的算子内存未被回收。也就是说,按照执行顺序位于算子A之后的算子中存在一个算子C,在执行算子C时需要使用算子内存未回收的第二候选依赖算子的输出项。可以理解的是,在执行算子A时,第二候选依赖算子的算子内存不可以被回收,从而算子A不能复用第二候选依赖算子的算子内存。例如,如图2所述的网络模型中,执行Conv1算子时,Conv0算子的输出项会被位于Conv1算子之后的Concat算子使用,从而Conv0算子的算子内存未被回收,从而Conv0算子为Conv1算子的第二候选依赖算子。
此外,在获取到的第一候选依赖算子和第二候选依赖算子之后,由于每个算子都需要依赖其自身的输入项,即每个算子都与其自身具有依赖关系,从而将算子、选取的第一候选依赖算子和第二候选依赖算子作为该算子的第一依赖算子。
举例说明:网络模型为图2所示的网络模型,网络模型中的Input算子无输入项,仅对自身输出有依赖,从而Input算子对应的第一依赖算子为Input算子;Split0算子的输入项和输出项可以共享内存,Split0算子仅对自身输出有依赖,从而Split0算子对应的第一依赖算子为Split0算子;Conv0算子的输入项和输出项不可以共享内存,并且Conv0算子对其自身输出有依赖,从而Conv0算子对应的第一依赖算子包括Split0算子和Conv0算子;Conv1算子的输入项和输出项不可以共享内存,Conv1算子对其自身输出有依赖,并且在执行Conv1算子时Conv0算子的内存无法回收,从而Conv1算子对应的第一依赖算子包括Split0算子、Conv0算子和Conv1算子;依次类推,各算子各自对应的第一依赖算子如图3所示。
在所述步骤S12中,假设网络模型包括算子A,算子A的第二依赖算子为按照执行顺序位于算子A之后的算子B,其中,算子A之后的算子B已经在执行步骤S11时建立了与算子A之间的依赖关系,即算子A是算子B的第一依赖算子,则在本步骤中,算子B即为算子A的第二依赖算子。例如,在如图2所示的网络模型中,Conv4算子对应的第一依赖算子包括Concat算子,从而,Conv4算子为Concat算子的第二依赖算子。
在所述步骤S13中,在选取到第一依赖算子和第二依赖算子之后,将选取到的第一依赖算子和第二依赖算子作为算子的依赖算子。本实施例通过将第一依赖算子与按照推理位于算子之前的各算子建立依赖关系,并通过第二依赖算子与按照推理位于算子之后的各算子建立依赖关系,从而确定了网络模型中的各算子之间的相互依赖关系,具有相互依赖关系的算子不能共享内存,以便于基于相互依赖关系为各算子分配连续内存。例如,如图2所示的网络模型中的各算子各自对应的依赖算子可以如图4所示。
局部内存共享算子为基于局部内存复用关系确定的,局部内存共享算子复用算子内存。假设网络模型包括算子A,算子A的局部内存共享算子为基于局部内存复用关系确定的,算子A的局部内存共享算子为网络模型中可以复用算子A的算子内存的算子,换句话说,局部内存共享算子可以共用算子A的算子内存。在一个实现方式中,局部内存复用关系的确定原则可以为:1)、算子A对算子A自身具有局部内存复用关系;2)、当网络模型中的算子B与算子A相连接,且算子B为输出项和输入项可复用内存的算子时(根据算子B的算子特性确定),算子A与算子B之间具有局部内存复用关系。
在本发明的一个实施例中,各算子对应的局部内存共享算子的确定过程具体包括如下步骤:
对于所述网络模型中的每个算子,按照执行顺序在位于所述算子之后的算子中选取复用所述算子的算子内存的第一局部内存共享算子;
按照执行顺序在位于所述算子之前的算子中选取被所述算子复用算子内存的第二局部内存共享算子;
将所述算子、选取到的第一局部内存共享算子以及第二局部内存共享算子作为所述算子对应的局部内存共享算子,以得到各算子对应的局部内存共享算子。
具体地,假设网络模型包括算子A,算子A的第一局部内存共享算子按照执行顺序位于算子A之后,第二局部内存共享算子按照执行顺序位于算子A之前,其中,第一局部内存共享算子可以复用算子A的算子内存,第二局部内存共享算子的算子内存可以被算子A复用,并且算子A与对应的第一局部内存共享算子和第二局部内存共享算子均具有连接关系。也就是说,第一局部内存共享算子与算子A连接且为算子A的输出算子,第一局部内存共享算子的输入项复用所述算子的输出项的算子内存;第二局部内存共享算子为与算子A连接且为算子A的输入算子,第二局部内存共享算子的输出项的算子内存被所述算子的输出项复用。
本实施例在获取到各算子对应的依赖算子后,又获取各算子的局部内存共享算子,这样可以重复获取各算子在网络模型的连接关系,可以避免仅获取到算子对应的依赖算子而导致的按照输出内存大小关系为各算子分配内存可能会出现内存分配错误的问题。例如,假设优先分配Concat,随后根据依赖关系为其对应的三个输入算子分配内存,接下来为Input分配内存,根据依赖关系它和其他输出内存不具有依赖关系,然后为Split0分配内存,它复用Input的输出内存,但同时又和Conv0、Conv1的输出内存有依赖,导致内存分配错误。
举例说明:如图2所示的网络模型,网络模型中的每个算子均为其自身的局部内存共享算子,Input算子连接Split0算子并且Split0算子为输入输出复用内存的算子,从而Split0算子为Input算子的第一局部内存共享算子,再向下层连接,由于Split0算子的输出项复用Input算子的输出项的算子内存,从而可以将Split0算子的连接算子算作Input算子的连接算子,即Conv0算子和Conv1算子为Input算子的连接算子,而Conv0算子和Conv1算子根据算子特性判断出输出项不复用输入项的算子内存,从而Conv0算子和Conv1算子不为Input算子的第一局部算子,并且Conv0算子和Conv1算子的连接算子不可以算作Input算子的连接算子,由此,Input算子的第一局部内存共享算子为Split0算子;依次类推,图2所示的网络模型中的各算子的第一局部内存共享算子可以如图5所示。上述获取第一局部内存共享算子的完成后,还需要按照推理顺序,反向遍历一遍,获取各算子的第二局部内存共享算子,例如Conv4算子连接Concat算子且Concat算子不是输出项复用输入项内存的算子,则Concat算子不是Conv4算子的第二局部内存共享算子;继续遍历Concat算子连接的算子Conv0、Conv2和Conv3,根据内存复用确定原则可知均为Concat算子的第二局部内存共享算子。在反向遍历完成后,图2所述的网络模型中的各算子各自对应的局部内存共享算子可以如图6所示。
S20、根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子。
具体地,所述参照算子为网络模型中的未分配算子内存的算子,目标算子为网络模型中的参照算子中算子内存最大的算子。例如,如图2所示的网络模型,当网络模型中的所有算子均未分配算子内存时,Concat算子的算子内存最大,Concat算子为目标算子。此外,在实际应用中,网络模型中可能存在算子内存相同的算子,从而在网络模型中选取目标算子时,可能会选取到多个目标算子。基于此,根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子具体为:
在所述网络模型的各未分配算子内存的参照算子中选取算子内存最大的参照算子;
当所述算子内存最大的参照算子为多个时,将按照执行顺序将位于最前的算子内存最大的参照算子作为目标算子。
具体地,参照算子为网络模型中未分配算子内存的算子,其中,参照算子的数量可以为1个,也可以为多个。其中,当参照算子的数量为1时,可以直接将参照算子作为目标算子;当参照算子的数量大于1时,按照执行顺序将最前的参照算子作为目标算子。例如,如图2所示的网络模型,当网络模型中未分配算子内存中算子的算子内存最大为90时,Concat算子为参照算子,当网络模型中未分配算子内存中算子的算子内存最大为40时,那么选取到的参照算子可以包括Input算子、Split0算子、Conv1算子以及Split1算子。本实施例首先按照算子内存大小确定内存分配顺序,然后在算子内存大小相同时,按照执行顺序确定算子内存大小相同的算子的执行顺序,这样可以在分配内存时,优先为算子内存大的算子分配内存,分配顺序位于其后的算子内存小,更容易放置于已分配未回收的算子内存的间隙,从而可以降低网络模型对于内存资源的占用量。当然,本实施例仅是给出一个典型实现方式,在实际应用中,也可以采用其他方式分配,例如,首先按照算子内存大小确定内存分配顺序,然后在算子内存大小相同时,按照算子对应的依赖算子的数量确定算子内存大小相同的算子的执行顺序等。
S30、读取所述目标算子的所述局部内存共享算子的依赖算子。
具体地,目标算子的局部内存共享算子和局部内存共享算子的依赖算子为通过上述步骤获取的,也就是说,在选取到目标算子后,可以直接的读取目标算子对应的局部内存共享算子,然后在读取各局部内存共享算子各自对应的依赖算子。局部共享算子的依赖算子为目标算子的内存分配时所依赖的所有依赖算子,这是由于局部内存共享算子复用目标算子的算子内存,而局部内存共享算子的依赖算子不复用局部内存共享算子的算子内存,从而目标算子的算子内存不能与其对应的依赖算子和其对应的局部内存共享算子的依赖算子的算子内存重叠。此外,由于目标算子为其自身的局部共享算子,从而在获取到目标算子对应的局部共享算子的依赖算子时,也获取到目标算子自身的依赖算子。由此,在为目标算子分配算子内存时,仅需要获取目标算子对应的各局部内存共享算子的算子内存,就获取到影响目标算子的算子内存分配的所有依赖算子。
S40、根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存。
具体地,输入算子与目标算子相连接,并且输入算子的输出项为目标算子的输入项。在获取到依赖算子时,由于目标算子的算子内存不复用依赖算子的算子内存,从而在为目标算子分配算子内存时,目标算子所分配的算子内存不与依赖算子的算子内存重叠。此外,网络模型中的各算子的算子特性不同,在基于依赖算子为目标算子和目标算子的输入算子分配内存时,可以直接为目标算子分配内,或者为目标算子和目标算子的输入算子分内存。
基于此,在一个实现方式中,所述步骤S40:所述根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存具体包括:
S41、当所述目标算子为不可剔除算子时,基于所述依赖算子为所述目标算子分配算子内存;
S42、当所述目标算子为可剔除算子时,为所述目标算子分配与其输入算子的算子内存相同的算子内存;
S43、当所述目标算子为合并算子时,基于所述依赖算子为所述目标算子分配算子内存,并且按照执行顺序依次为所述目标算子的输入算子分配算子内存
具体地,在所述步骤S41中,不可剔除算子为算子本身进行算子计算的算子,其中,不可剔除算子可以基于算子特性确定的,也可以根据预先设置的可剔除算子集合确定。当基于算子特性确定时,在获取到目标算子时,可以获取所述目标算子的算子特性,当算子特性为本身进行算子计算时,目标算子为不可剔除算子;当基于预先设置的可剔除算子集合确定时,获取到的目标算子时,检测目标算子是否包含于可剔除算子集合,当未包含于可剔除算子集合且不为合并算子时,目标算子为不可剔除算子。
在一个典型实现方式中,由于预设的网络模型为已知的,从而在为网络模型分配内存之前,可以预先获取网络模型所包括的各算子,并为各算子分配算子类型,其中,算子类型包括可剔除算子、不可剔除算子以及合并算子;然后,在为算子分配内存时,可以直接读取算子所携带的算子类型,并基于提取到的算子类型为各算子分配内存,这样一方面可以避免内存分配过程中的算子类型确定过程,可以提高内存分配速度;另一方面还可以避免因算子类型确定错误而导致的内存分配错误的问题。
在本实施例的一个实现方式中,所述基于所述依赖算子为所述目标算子分配算子内存具体包括:
检测所述依赖算子中是否存在已分配算子内存的目标依赖算子;
当存在目标依赖算子时,为所述目标算子分配与所述目标依赖算子的算子内存不重叠的算子内存;
当未存在目标依赖算子时,将位置0作为所述目标算子的起始位置,从所述起始位置开始为所述目标算子分配算子内存。
具体地,所述依赖算子为目标算子对应的局部内存共享算子的依赖算子,其中,依赖算子中可以存在已经分配算子内存的,也可以存在未分配算子内存。例如,目标算子为在如图2所示的网络模型中Concat算子,Concat算子对应的获取到的依赖算子包括Concat算子、Conv3算子、Conv2算子以及Conv0算子,Concat算子为如图2所示的网络模型中算子内存最大的算子,从而在为Concat算子分配内存时,Concat算子、Conv3算子、Conv2算子以及Conv0算子均未分配算子内存,Concat算子对应的获取到的依赖算子中不存在目标依赖算子;目标算子为在如图2所示的网络模型中Conv4算子,Conv4算子对应的获取到的依赖算子包括Concat算子,Concat算子已经分配算子内存,Conv4算子对应的获取到的依赖算子中存在目标依赖算子Concat算子。
当存在目标依赖算子时,由于目标算子不复用目标依赖算子的算子内存,从而目标算子的算子内存不能于目标依赖算子的算子内存重叠。由此,目标算子的算子位置可以设置于目标依赖算子的算子内存之后。在一个实现方式中,在存在目标依赖算子时,将与目标依赖算子相邻且位于其后的位置作为所述目标算子的起始位置,从所述起始位置开始为所述目标算子分配算子内存,这样将与目标依赖算子相邻且位于其后的位置作为所述目标算子的起始位置,可以使得网络模型所占用尽量少的内存资源。当然,在实际应用中,也可以采用目标依赖算子的算子内存所占用的内存资源之后的任意位置的内存资源为目标算子分配算子内存等。此外,在未存在目标依赖算子时,说明目标算子内存的算子内存可以分配为任意位置,此时可以以位置0作为所述目标算子的起始位置来为目标算子分配算子指令。当然,在实际应用中,也可以以其他位置为起始位置,例如,位置1,位置2等。
在所述步骤S42中,可剔除算子为可以复用其输入算子的算子内存的算子,当目标算子为可剔除算子时,目标算子可以复用其输入算子的算子内存,从而分配与输入算子相同的算子内存,其中,所述输入算子的输出项为所述目标算子的输入项。例如,如图2所示的网络模型中的Split0算子,Split0算子为可剔除算子,Split0算子的输入算子为Input算子,从而为Split0算子与Input算子相同的内存。此外,值得说明的时,由于可剔除算子可以复用其输入算子的算子内存,从而可剔除算子的算子内存大小与其输入算的算子内存相同;而本实施例中在算子内存大小相同时,会按照执行顺序为算子内存大小相同的算子分配内存,而目标算子的输入算子的执行顺序先于目标算子的执行顺序,由此,在为目标算子分配内存时,目标算子的输入算子已经分配算子内存,从而可以为所述目标算子分配与其输入算子的算子内存相同的算子内存。
在所述步骤S43中,合并算子为用于执行合并操作的算子,合并算子本身不进行算子执行,仅是将输入项进行数据合并,从而在进行算子剔除时,也可以将合并算子剔除。然而,在将合并算子剔除时,需要保证合并算子的各输入算子的算子内存连续,以使得以合并算子的输出项作为输入的算子可以正确获取到合并算子的各输入算子的输出项。由此,在目标算子为合并算子时,在获取所述目标算子的局部内存共享算子,并基于所述依赖算子为所述目标算子分配算子内存后,还会为合并算子对应的输入算子分配算子内存,其中,合并算子对应的输入算子分配算子可以与合并算子的算子内存重叠,但是各输入算子之间的算子内存不可以重叠。其中,在获取所述目标算子的局部内存共享算子,并基于所述依赖算子为所述目标算子分配算子内存与步骤S41中的过程相同,这里就不在赘述,具体可以参照步骤S41的说明。
在本发明的一个实施例中,所述方法还包括:
S50、继续执行根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子的步骤,直至所述网络模型中的每个算子均分配算子内存。
具体地,在继续执行在网络模型的各未分配算子内存的参照算子中选取算子内存最大的目标算子的步骤之前,可以检测所述网络模型中是否存在未分配算子内存的算子;当存在未分配算子内存的算子时,则继续执行在所述网络模型的参照算子中选取算子内存最大的目标算子的步骤;当不存在未分配算子内存的算子时,说明已经完成网络模型的内存分配,则停止执行在所述网络模型的参照算子中选取算子内存最大的目标算子的步骤。
为了进一步说明本实施例提供的内存分配方法,下面给出一个具体例子对本实施例提供的内存分配方法进行具体说明。
预设的网络模型为如图2所述的网络模型,网络模型中各算子各自对应的依赖算子如图4所示,各算子各自对应的局部内存共享算子如图6所示。网络模型中的各算子的内存分配过程为:
Concat分配内存,Concat为合并算子,Concat对应的依赖算子以及其对应的局部内存共享算对应的依赖算子包括Concat、Conv3、Conv2、Conv0,Concat、Conv3、Conv2以及Conv0均未分配算子内存,所以Concat不受内存限制,可以从Offset=0位置放置;Concat的输入算子包括Conv3、Conv2、Conv0,在Concat的输入算子分别内存后,依次为Conv3、Conv2、Conv0分配算子内存,如图7所示;
Conv4分配内存,Conv4对应的依赖算子以及其对应的局部内存共享算对应的依赖算子包括Conv4和Concat,Concat已分配算子内存,从而从offset=0的位置开始找一块能够存放Conv4的输出且不与Concat内存重叠的内存,如图8所示;
Input、Split0、Conv1和Split1的算子内存相同,按照执行顺序先为Input分配内存,Input对应的依赖算子以及其对应的局部内存共享算对应的依赖算子包括Input、Split0、Conv0、Conv1,Conv0已经分配算子内存,Input算子从offset=0位置开始,找一块能够存放Input的输出且不与Conv0内存重叠的内存;Split0分配内存,Split0分配和输入算子Input一样的内存,如图9所示;
Conv1分配内存,Conv1对应的依赖算子以及其对应的局部内存共享算子的依赖算子中已分配内存的算子包括Split0、Conv0、Conv2、Conv3,从offset=0的位置开始,找一块能够存放Conv1的输出且不与Split0、Conv0、Conv2、Conv3发生内存重叠的内存;Split1算子分配和输入算子Conv1一样的内存,如图10所示。
为了进一步说明本实施例提供的内存分配方法的效果,采用本实施例提供的内存分配方法以及现有内存分配方法(Greedy by Size for Offset Calculation方法)分别对如图11所示的网络模型进行内存分配,其中,本实施例的内存分配方法的内存使用情况如图12所示,现有内存分配方法的内存使用情况如图13所示。由图12和图13所示可以知道,本实施例提供的内存方法所使用的内存大小为160,现有内存分配方法所使用的内存大小为180,本实施例提供的内存分配方法可以使用更好的内存资源。
综上所述,本实施例提供了一种内存分配方法,所述的内存分配方法包括获取预设的网络模型,确定所述网络模型中各算子的执行顺序、算子内存、对应的依赖算子及局部内存共享算子;根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子;读取所述目标算子的所述局部内存共享算子的依赖算子;根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存;继续执行根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子的步骤,直至所述网络模型中的每个算子均分配算子内存。本申请通过获取各算子的依赖算子及局部内存共享算子,并基于局部内存共享算子的依赖算子为算子以及算子的输入算子分配内存,并控制可复用其输入算子的算子复用其输入算子的算子内存,减少了网络模型所需的内存资源。同时,当在线使用网络模型时,将复用输入算子的算子内存的算子从网络模型中剔除,这样可以减少网络模型执行过程中的数据搬运次数,提高网络模型的推理速度。
基于上述内存分配方法,本实施例提供了一种网络模型的部署方法,所述的方法包括:
将网络模型部署于目标设备,并在离线模型上采用如上所述的内存分配方法为所述网络模型的各算子分配算子内存;
将所述网络模型中复用输入算子的算子内存的算子剔除,并采用剔除后的网络模型进行在线推理。
具体地,所述复用输入算子的算子为网络模型中的可剔除算子和合并算子,在将复用输入算子的算子内存的算子剔除之后,可以将被剔除的算子对应的输入算子与被剔除的算子对应的输出算子相连接,这样网络模型在进行在线推理时,被剔除的算子对应的输出算子可以直接使用被剔除的算子对应的输入算子的算子内存中的算子,这样可以减少网络模型执行过程中的数据搬运,提高网络模型的推理速度。
基于上述内存分配方法,本实施例提供了一种内存分配装置,如图14所示,所述的内存分配装置包括:
确定模块100,获取预设的网络模型,确定所述网络模型中各算子的执行顺序、算子内存、对应的依赖算子及局部内存共享算子,其中,所述依赖算子不复用所述算子内存,所述局部内存共享算子复用所述算子内存;
选取模块200,用于根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子;
读取模块300,用于读取所述目标算子的所述局部内存共享算子的依赖算子;
分配模块400,用于根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存;
执行模块500,用于继续执行根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子的步骤,直至所述网络模型中的每个算子均分配算子内存。
基于上述内存分配方法,本实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上述实施例所述的内存分配方法中的步骤。
基于上述内存分配方法,本申请还提供了一种终端设备,如图15所示,其包括至少一个处理器(processor)20;显示屏21;以及存储器(memory)22,还可以包括通信接口(Communications Interface)23和总线24。其中,处理器20、显示屏21、存储器22和通信接口23可以通过总线24完成相互间的通信。显示屏21设置为显示初始设置模式中预设的用户引导界面。通信接口23可以传输信息。处理器20可以调用存储器22中的逻辑指令,以执行上述实施例中的方法。
此外,上述的存储器22中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器22作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令或模块。处理器20通过执行存储在存储器22中的软件程序、指令或模块,从而执行功能应用以及数据处理,即实现上述实施例中的方法。
存储器22可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器。例如,U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
此外,上述存储介质以及终端设备中的多条指令处理器加载并执行的具体过程在上述方法中已经详细说明,在这里就不再一一陈述。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (12)

1.一种内存分配方法,其特征在于,所述的方法包括:
获取预设的网络模型,确定所述网络模型中各算子的执行顺序、算子内存、对应的依赖算子及局部内存共享算子,其中,所述依赖算子不复用所述算子内存,所述局部内存共享算子复用所述算子内存;
根据所述算子内存以及所述执行顺序,在所述网络模型的各未分配算子内存的参照算子中选取目标算子;
读取所述目标算子的所述局部内存共享算子的依赖算子;
根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存。
2.根据权利要求1所述内存分配方法,其特征在于,所述方法还包括:
继续执行根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子的步骤,直至所述网络模型中的每个算子均分配算子内存。
3.根据权利要求1所述内存分配方法,其特征在于,所述根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存具体包括:
当所述目标算子为不可剔除算子时,基于所述依赖算子为所述目标算子分配算子内存;
当所述目标算子为可剔除算子时,为所述目标算子分配与其输入算子的算子内存相同的算子内存;
当所述目标算子为合并算子时,基于所述依赖算子为所述目标算子分配算子内存,并且按照所述执行顺序依次为所述目标算子的输入算子分配算子内存。
4.根据权利要求3所述的内存分配方法,其特征在于,所述基于所述依赖算子为所述目标算子分配算子内存具体包括:
检测所述依赖算子中是否存在已分配算子内存的目标依赖算子;
当存在所述目标依赖算子时,为所述目标算子分配与所述目标依赖算子的算子内存不重叠的算子内存;
当未存在所述目标依赖算子时,将位置0作为所述目标算子的起始位置,从所述起始位置开始为所述目标算子分配算子内存。
5.根据权利要求1所述内存分配方法,其特征在于,所述根据所述算子内存以及所述执行顺序,在所述网络模型的各未分配算子内存的参照算子中选取目标算子具体包括:
在所述网络模型的各未分配算子内存的参照算子中选取算子内存最大的参照算子;
当所述算子内存最大的参照算子为多个时,将按照所述执行顺序将位于最前的算子内存最大的参照算子作为目标算子。
6.根据权利要求1所述内存分配方法,其特征在于,所述依赖算子的确定过程具体包括:
对于所述网络模型中的每个算子,按照所述执行顺序在位于所述算子之前的算子以及所述算子中选取所述算子对应的第一依赖算子,以得到各算子各自对应的第一依赖算子;
对于所述网络模型中的每个算子,按照所述执行顺序在位于所述算之后的各算子中选取第二依赖算子,其中,第二依赖算子对应的第一依赖算子包含所述算子;
将选取到的第一依赖算子以及第二依赖算子作为所述算子对应的依赖算子,以得到各算子对应的依赖算子。
7.根据权利要求6所述内存分配方法,其特征在于,所述按照执行顺序在位于所述算子之前的算子以及所述算子中选取所述算子对应的第一依赖算子具体包括:
获取按照执行顺序位于所述算子之前的候选算子;
基于所述算子的算子特征在获取到的候选算子中选取所述算子对应的第一候选依赖算子,其中,所述第一候选依赖算子的输出项为所述算子的输入项;
在除所述第一候选依赖算子外的候选算子中选取算子内存未回收的第二候选依赖算子;
将所述算子、选取到的第一候选依赖算子和第二候选依赖算子,作为所述算子对应的第一依赖算子。
8.根据权利要求1所述内存分配方法,其特征在于,所述局部内存共享算子的确定过程具体包括:
对于所述网络模型中的每个算子,按照所述执行顺序在位于所述算子之后的算子中选取复用所述算子的算子内存的第一局部内存共享算子;
按照所述执行顺序在位于所述算子之前的算子中选取被所述算子复用算子内存的第二局部内存共享算子;
将所述算子、选取到的第一局部内存共享算子以及第二局部内存共享算子作为所述算子对应的局部内存共享算子,以得到各算子对应的局部内存共享算子。
9.一种内存分配装置,其特征在于,所述的内存分配装置包括:
确定模块,获取预设的网络模型,确定所述网络模型中各算子的执行顺序、算子内存、对应的依赖算子及局部内存共享算子,其中,所述依赖算子不复用所述算子内存,所述局部内存共享算子复用所述算子内存;
选取模块,用于根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子;
读取模块,用于读取所述目标算子的所述局部内存共享算子的依赖算子;
分配模块,用于根据所述依赖算子为所述目标算子以及所述目标算子的输入算子分配内存;
执行模块,用于继续执行根据所述算子内存以及所述执行顺序在所述网络模型的各未分配算子内存的参照算子中选取目标算子的步骤,直至所述网络模型中的每个算子均分配算子内存。
10.一种网络模型的部署方法,其特征在于,所述的方法包括:
将网络模型部署于目标设备,并在离线模型上采用如权利要求1-8任一所述的内存分配方法为所述网络模型的各算子分配算子内存;
将所述网络模型中复用输入算子的算子内存的算子剔除,并采用剔除后的网络模型进行在线推理。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-8任意一项所述的内存分配方法中的步骤,和/或以实现如权利要求10所述的网络模型的部署方法。
12.一种终端设备,其特征在于,包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如权利要求1-8任意一项所述的内存分配方法中的步骤,和/或实现如权利要求10所述的网络模型的部署方法。
CN202210242722.2A 2022-03-11 2022-03-11 一种内存分配方法、部署方法及相关装置 Pending CN114780230A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210242722.2A CN114780230A (zh) 2022-03-11 2022-03-11 一种内存分配方法、部署方法及相关装置
PCT/CN2022/100632 WO2023168855A1 (zh) 2022-03-11 2022-06-23 一种内存分配方法、部署方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210242722.2A CN114780230A (zh) 2022-03-11 2022-03-11 一种内存分配方法、部署方法及相关装置

Publications (1)

Publication Number Publication Date
CN114780230A true CN114780230A (zh) 2022-07-22

Family

ID=82424235

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210242722.2A Pending CN114780230A (zh) 2022-03-11 2022-03-11 一种内存分配方法、部署方法及相关装置

Country Status (2)

Country Link
CN (1) CN114780230A (zh)
WO (1) WO2023168855A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115495248A (zh) * 2022-10-26 2022-12-20 上海燧原科技有限公司 一种推理卡的内存分配方法、装置、电子设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117971712A (zh) * 2024-03-29 2024-05-03 阿里云计算有限公司 内存回收方法、装置、电子设备、存储介质及程序产品

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10943171B2 (en) * 2017-09-01 2021-03-09 Facebook, Inc. Sparse neural network training optimization
CN113127181B (zh) * 2019-12-30 2024-02-20 杭州海康威视数字技术股份有限公司 内存管理方法、装置及存储介质
CN114518950A (zh) * 2020-11-18 2022-05-20 华为技术有限公司 一种内存管理的方法、设备及系统
CN113168349A (zh) * 2021-03-26 2021-07-23 珠海全志科技股份有限公司 Ai处理器的内存分配方法、计算机装置及计算机可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115495248A (zh) * 2022-10-26 2022-12-20 上海燧原科技有限公司 一种推理卡的内存分配方法、装置、电子设备及存储介质
CN115495248B (zh) * 2022-10-26 2023-09-15 上海燧原科技有限公司 一种推理卡的内存分配方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2023168855A1 (zh) 2023-09-14

Similar Documents

Publication Publication Date Title
CN114780230A (zh) 一种内存分配方法、部署方法及相关装置
CN110389843B (zh) 一种业务调度方法、装置、设备及可读存储介质
CN103685256A (zh) 一种虚拟机迁移管理方法、装置及系统
CN104252391A (zh) 用于在分布式计算系统中管理多个作业的方法和装置
CN102023843B (zh) 函数的调用方法、装置及智能卡
CN104102535B (zh) 进程迁移方法和可迁移操作系统
CN111274033B (zh) 一种资源部署方法、装置、服务器以及存储介质
CN109933430B (zh) 分配图形处理器的方法和装置
CN108228490B (zh) 一种基于pcie卡高速数据传输的驱动方法
CN111309644B (zh) 一种内存分配方法、装置和计算机可读存储介质
US8806497B2 (en) System and method for altering the work definitions in an iterative parallel opportunistic work stealing scheduler
US10318343B2 (en) Migration methods and apparatuses for migrating virtual machine including locally stored and shared data
CN107977275B (zh) 基于消息队列的任务处理方法及相关设备
CN110661828A (zh) 一种资源分配方法、装置、服务器及可读存储介质
CN115983359A (zh) 异构计算调度方法及装置、计算机可读存储介质
CN113849260A (zh) 一种实例的处理核分配方法及装置
CN104520811A (zh) 优化具有多个中央处理器的计算机的启动时间的系统及方法
CN112631994A (zh) 数据迁移方法及系统
CN111598768A (zh) 图像优化处理方法、装置、计算机设备及存储介质
CN115328833B (zh) 硬件资源的复用方法、装置、硬件平台及存储介质
CN104184685A (zh) 数据中心资源分配方法、装置及系统
CN105512091A (zh) 一种内存分配方法及装置
CN115729702A (zh) 应用程序内存配置方法、电子设备、计算机存储介质
CN113515387B (zh) 数据处理方法、装置及电子装置
CN112328532B (zh) 多gpu通信的方法及装置、存储介质、电子装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination