CN114219091A - 网络模型推理加速的方法、装置、设备及存储介质 - Google Patents

网络模型推理加速的方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN114219091A
CN114219091A CN202111536025.XA CN202111536025A CN114219091A CN 114219091 A CN114219091 A CN 114219091A CN 202111536025 A CN202111536025 A CN 202111536025A CN 114219091 A CN114219091 A CN 114219091A
Authority
CN
China
Prior art keywords
tensor
target
network model
determining
program format
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111536025.XA
Other languages
English (en)
Inventor
蒋佳峻
成杰峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202111536025.XA priority Critical patent/CN114219091A/zh
Publication of CN114219091A publication Critical patent/CN114219091A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Image Generation (AREA)

Abstract

本申请涉及人工智能技术领域,提供一种网络模型推理加速的方法、装置、设备及存储介质,包括:在网络模型开始执行推理任务时,检测是否存在图形处理器;在存在图形处理器时,确定网络模型的文件中目标计算结构;目标计算结构包括矩阵乘法;确定与目标计算结构关联的目标张量;在目标张量的源程序格式要求不满足预设计算统一设备架构并行程序格式要求时,按照预设计算统一设备架构并行程序格式要求对目标张量的源程序格式进行修改;基于图形处理器根据修改后的目标张量的源程序对推理任务进行预测推理。可将目标计算结构中关联的张量,转变为GPU加速的张量。可自动适配GPU进行加速推理,从而提高了对网络模型进行加速推理的便捷性。

Description

网络模型推理加速的方法、装置、设备及存储介质
技术领域
本申请属于人工智能技术领域,尤其涉及一种网络模型推理加速的方法、装置、设备及存储介质。
背景技术
近年来,深度学习算法被广泛应用于各个智能领域,通常对于深度学习的网络模型要先进行模型训练,训练阶段完成之后,模型将投产到实际业务场景中,要先将网络模型结构和参数等模型文件进行部署以持久化模型文件,提供预测推理服务/程序加载运行,以进行在线/离线的预测。
预测流程是模型实际落地的重要步骤,可生成持久化的pth格式模型参数文件供预测流程使用。由于深度学习的网络模型以数据处理为核心,包括大量的计算操作,在传统的中央处理器(Central Processing Unit,CPU)进行推理预测很难满足这些要求,因此有时需要图形处理器(Graphics Processing Unit,GPU)进行推理预测,但是GPU进行推理预测需要针对特定的模型专门编写服务/程序,需手动预先指定哪些网络模型中哪些步骤需要在GPU上存储和计算,因此需要编程人员根据实际情况不断的人工调整代码再进行加速推理,对网络模型进行加速推理的便捷性低。
发明内容
本申请实施例提供了一种网络模型推理加速的方法、装置、设备及存储介质,旨在解决现有对网络模型进行加速推理的便捷性低的问题。
第一方面,本申请实施例提供了一种网络模型推理加速的方法,包括:
在所述网络模型开始执行推理任务时,检测是否存在图形处理器;
在存在所述图形处理器时,确定所述网络模型的文件中目标计算结构;所述目标计算结构包括矩阵乘法;
确定与所述目标计算结构关联的张量,作为目标张量,所述目标张量包括同一数据类型元素的多维矩阵;
检测所述目标张量的源程序格式是否满足预设计算统一设备架构并行程序格式要求;
在所述目标张量的源程序格式要求不满足预设计算统一设备架构并行程序格式要求时,按照预设计算统一设备架构并行程序格式要求对目标张量的源程序格式进行修改;
基于所述图形处理器根据修改后的目标张量的源程序对推理任务进行预测推理。
在一个实施例中,所述确定与所述目标计算结构关联的张量,作为目标张量,包括:
确定与所述目标计算结构关联的张量;
确定与所述目标计算结构关联的张量的维度;
在与所述目标计算结构关联的所有张量中任一个张量的维度大于第一预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。
在一个实施例中,在确定与所述目标计算结构关联的张量的维度之后,还包括:
在与所述目标计算结构关联的所有张量中任两个张量的维度大于第二预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量;其中所述第二预设阈值小于所述第一预设阈值。
在一个实施例中,所述确定与所述目标计算结构关联的张量,作为目标张量,包括:
确定与所述目标计算结构关联的张量;
确定与所述目标计算结构关联的张量的维度;
确定所述图形处理器的计算能力值;
基于预设关系映射表,获取与所述计算能力值相对应的目标阈值;
在与所述目标计算结构关联的所有张量中任一个张量的维度大于所述目标阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。
在一个实施例中,在网络模型执行推理任务时,检测是否存在图形处理器之后,包括:
在不存在所述图形处理器时,检测是否存在计算统一设备架构并行程序格式对应的张量;
若存在计算统一设备架构并行程序格式对应的张量,则将计算统一设备架构并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序。
在一个实施例中,在网络模型执行推理任务时,检测是否存在图形处理器之后,还包括:
在存在所述图形处理器时,且所述图形处理器的计算能力小于第二预设阈值时,检测是否存在计算统一设备架构并行程序格式对应的张量;
若存在计算统一设备架构并行程序格式对应的张量,则将计算统一设备架构并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序。
在一个实施例中,在所述网络模型开始执行推理任务时,检测是否存在图形处理器,包括:
所述网络模型开始执行推理任务时,获取所述终端设备包括处理器的设备信息;
若所述终端设备中存在与图形处理器的设备信息相匹配的设备信息,则判定存在所述图形处理器;
若所述终端设备中不存在与图形处理器的设备信息相匹配的设备信息,则判定不存在所述图形处理器。
第二方面,本申请实施例提供了一种网络模型推理加速的装置,应用于部署网络模型的终端设备,所述装置包括:
获取模块,用于在所述网络模型开始执行推理任务时,检测是否存在图形处理器;
第一确定模块,用于在存在所述图形处理器时,确定所述网络模型的文件中目标计算结构;所述目标计算结构包括矩阵乘法;
第二确定模块,用于确定与所述目标计算结构关联的张量,作为目标张量,所述目标张量包括同一数据类型元素的多维矩阵;
第一检测模块,用于检测所述目标张量的源程序格式是否满足预设计算统一设备架构并行程序格式要求;
第一修改模块,用于在所述目标张量的源程序格式要求不满足预设计算统一设备架构并行程序格式要求时,按照预设计算统一设备架构并行程序格式要求对目标张量的源程序格式进行修改;
预测推理模块,用于所述图形处理器根据修改后的目标张量的源程序对推理任务进行预测推理。
在一个实施例中,所述第二确定模块包括:
第一确定单元,用于确定与所述目标计算结构关联的张量;
第二确定单元,用于确定与所述目标计算结构关联的张量的维度;
第三确定单元,用于在与所述目标计算结构关联的所有张量中任一个张量的维度大于第一预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。
在一个实施例中,第二确定模块还包括:
第四确定单元,用于在与所述目标计算结构关联的所有张量中任两个张量的维度大于第二预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量;其中所述第二预设阈值小于所述第一预设阈值。
在另一个实施例中,所述第二确定模块包括:
第五确定单元,用于确定与所述目标计算结构关联的张量;
第六确定单元,用于确定与所述目标计算结构关联的张量的维度;
第七确定单元,用于确定所述图形处理器的计算能力值;
获取单元,用于基于预设关系映射表,获取与所述计算能力值相对应的目标阈值;
第八确定单元,用于在与所述目标计算结构关联的所有张量中任一个张量的维度大于所述目标阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。
在一个实施例中,所述装置还包括:
第二检测模块,用于在不存在所述图形处理器时,检测是否存在计算统一设备架构并行程序格式对应的张量;
第二修改模块,用于若存在计算统一设备架构并行程序格式对应的张量,则将计算统一设备架构并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序。
在一个实施例中,所述装置还包括:
第三检测模块,用于在存在所述图形处理器时,且所述图形处理器的计算能力小于第二预设阈值时,检测是否存在计算统一设备架构并行程序格式对应的张量;
第三修改模块,用于若存在计算统一设备架构并行程序格式对应的张量,则将计算统一设备架构并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序。
在一个实施例中,所述获取模块具体包括:
获取单元,用于所述网络模型开始执行推理任务时,获取所述终端设备包括处理器的设备信息;
第一判定单元,用于若所述终端设备中存在与图形处理器的设备信息相匹配的设备信息,则判定存在所述图形处理器;
第二判定单元,用于若所述终端设备中不存在与图形处理器的设备信息相匹配的设备信息,则判定不存在所述图形处理器。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述网络模型推理加速的方法的步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现上述网络模型推理加速的方法的步骤。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述网络模型推理加速的方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:由于本申请可先在网络模型开始执行推理任务时,检测是否存在图形处理器;并在存在图形处理器时,确定网络模型的文件中目标计算结构;目标计算结构包括矩阵乘法;确定与目标计算结构关联的张量,作为目标张量,所述目标张量包括同一数据类型元素的多维矩阵;检测目标张量的源程序格式要求是否满足预设计算统一设备架构并行程序格式要求;然后在目标张量的源程序格式要求不满足预设计算统一设备架构并行程序格式要求时,按照预设计算统一设备架构并行程序格式要求对目标张量的源程序格式进行修改;基于图形处理器根据修改后的目标张量的源程序对推理任务进行预测推理。由于将目标计算结构中关联的张量,转变为GPU加速的张量。可自动适配GPU进行加速推理,从而提高了对网络模型进行加速推理的便捷性。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例一提供的网络模型推理加速的方法的流程示意图;
图2是本申请实施例二提供的网络模型推理加速的方法的流程示意图;
图3是本申请实施例三提供的网络模型推理加速的方法的流程示意图;
图4是本申请实施例四提供的网络模型推理加速的装置的结构示意图;
图5是本申请实施例五提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例提供的网络模型推理加速的方法,可以应用于终端设备,所述终端设备可以是个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请实施例对终端设备的具体类型不作任何限制。
为了说明本申请所述的技术方案,下面通过具体实施例进行说明。
实施例一
请参阅图1,示出了本申请实施例提供的网络模型推理加速的方法的示意性流程图,所述网络模型推理加速的方法包括:
步骤S101,在所述网络模型开始执行推理任务时,检测是否存在图形处理器。
具体地,基于深度学习的网络模型已经在机器视觉领域得到了广泛的应用,利用网络模型执行图像分类、目标识别等,需要进行两个阶段的任务,第一个阶段是搭建网络模型后,并调整网络模型参数获得符合当前应用场景的良好性能,这个过程可以称之为模型训练过程,训练的步骤包括整理数据,提取特征,构建模型,学习参数,评估模型精度和泛化误差等。在训练阶段完成之后,模型将投产到实际业务场景中,需要对已训练好的网络模型进行部署,从而将模型结构和参数等信息持久化至模型文件中,供预测推理服务/程序加载运行,以进行在线/离线的预测,如进行图像分类预测或目标识别等预测推理服务。训练和推理两个任务有以下不同:网络模型参数在执行训练任务时需要不断更新,而在执行推理任务时是固定不变的,训练任务是一次性的,而推理任务是反复执行的,训练任务所需要的训练、测试数据集需要提前准备和标注好,在执行训练任务时反复使用,而推理任务是不断有新的测试数据等待被推理。如可基于PyTorch框架搭建神经网络模型,并将pytorch框架下的神经网络模型在训练、优化、调试完毕后,根据源代码生成格式为.pth的模型文件。深度学习算法以数据处理为核心,其中包括大量的计算操作,由于CPU中采用的晶体管大多数是用于构建高速缓冲存储器及控制单元,负责逻辑运算的部分不丰富,因此对很多计算操作使用CPU进行处理的效率比较低,GPU与CUP结构不同的是,GPU中内部结构中包括大量的逻辑计算单元,因此可结合GPU进行处理,从而可对模型预测推理的过程进行加速处理,深度学习默认使用的是CPU进行处理。在所述网络模型开始执行推理任务时,可先确定出当前执行终端中是否存在GPU,在存在GPU时,可结合GPU进行处理。
在一个实施例中,在所述网络模型开始执行推理任务时,检测是否存在图形处理器,包括:所述网络模型开始执行推理任务时,获取所述终端设备包括处理器的设备信息;若所述终端设备中存在与图形处理器的设备信息相匹配的设备信息,则判定存在所述图形处理器;若所述终端设备中不存在与图形处理器的设备信息相匹配的设备信息,则判定不存在所述图形处理器。
具体地,所述网络模型开始执行推理任务时,读取所述终端设备包括处理器的设备信息,所述设备信息包括但不限于处理器的型号、设备ID、名称等信息,在获取到终端设备中的设备信息与预先存储的GPU的设备信息相同时,就判定存在GPU处理器
步骤S102,在存在所述图形处理器时,确定所述网络模型的文件中目标计算结构;所述目标计算结构包括矩阵乘法。
具体地,在存在GPU时,可结合GPU进行处理,因此先确定出网络模型的文件中目标计算结构,如目标计算结构可以是矩阵乘法,矩阵乘法是网络模型中基本的计算结构,可基于GPU处理矩阵乘法的计算,进行加速推理,因此先确定出目标模型文件中的所有矩阵乘法。
步骤S103,确定与所述目标计算结构关联的张量,作为目标张量,所述目标张量包括同一数据类型元素的多维矩阵。
具体地,目标计算结构关联的张量可以是目标计算结构中计算需要用到的张量,张量tensor是一种包含同一数据类型元素的多维矩阵,是torch库的核心类,需要将张量改成计算统一设备架构(Compute Unified Device Architecture,CUDA)并行格式的程序才可使用GPU加速,CUDA是一种通用并行计算架构,该架构使GPU能够解决复杂的计算问题。终端设备中包含支持CUDA模块的GPU显卡,就可以利用GPU对网络计算进行加速。
步骤S104,检测所述目标张量的源程序格式是否满足预设CUDA并行程序格式要求。
具体地,GPU与CPU在使用时可以互相转化。深度学习默认使用的CPU,而我们可以在需要使用GPU时将数据计算从CPU转移至GPU。GPU的格式需要满足CUDA并行程序格式要求,因此先检测目标张量的源程序格式要求是否满足预设CUDA并行程序格式要求。
步骤S105,在所述目标张量的源程序格式要求不满足预设CUDA并行程序格式要求时,按照预设CUDA并行程序格式要求对目标张量的源程序格式进行修改。
具体地,在目标张量的源程序格式要求不满足预设CUDA并行程序格式要求时,数据计算从CPU转移至GPU,需按照预设CUDA并行程序格式要求对目标张量的源程序格式进行修改。如按照预设CUDA并行程序格式要求对目标张量的源程序格式进行修改可以是直接将程序后面加上“.cuda()”。
步骤S106,基于所述图形处理器根据修改后的目标张量的源程序对推理任务进行预测推理。
具体地,当我们对修改后的目标张量的源程序时,会完成从CPU到GPU的数据迁移。当调用修改后的目标张量的源程序时,将完成数据以及整个计算图从CPU到GPU的映射,可以将数据计算转移至GPU。从而保证了计算资源使用的灵活性。
在一个实施例中,在网络模型执行推理任务时,检测是否存在图形处理器之后,包括:在不存在所述图形处理器时,检测是否存在CUDA并行程序格式对应的张量;若存在CUDA并行程序格式对应的张量,则将CUDA并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序。
具体地,在不存在可用的图像处理器时,可以检测目标模型文件中是否存在CUDA并行程序格式对应的张量。若存在CUDA并行程序格式对应的张量,则将CUDA并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序,可以将数据计算再转移至CPU。如将CUDA并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序可以是直接将程序后面.cuda()删除,从而将CUDA并行程序格式对应的张量转化为CPU计算的张量。
在一种应用场景中,例如有一个需要进行矩阵乘法加速的模型定义文件,如下:
import torch
a=torch.Tensor([1,2])
b=torch.Tensor([[1],[2]])
c=torch.matmul(a,b)
目标计算结构为矩阵乘法c=torch.matmul(a,b),目标计算结构对应的张量包括a=torch.Tensor([1,2]),以及b=torch.Tensor([[1],[2]]),经过解析发现torch.Tensor([1,2])和torch.Tensor([[1],[2]])是两个基于CPU的张量,当终端设备上若无可用的GPU设备,实际推理时将不会将张量转移至GPU上进行加速计算。当前推理服务所在的执行终端上若有可用的GPU设备,则将a和b变为torch.Tensor([1,2]).cuda()和torch.Tensor([[1],[2]]).cuda();即上述代码将变为:
a=torch.Tensor([1,2]).cuda()
b=torch.Tensor([[1],[2]]).cuda()
c=torch.matmul(a,b)
在一个实施例中,在网络模型执行推理任务时,检测是否存在图形处理器之后,还包括:在存在所述图形处理器时,且所述图形处理器的计算能力小于第二预设阈值时,检测是否存在CUDA并行程序格式对应的张量;若存在CUDA并行程序格式对应的张量,则将CUDA并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序。
具体地,在存在所述图形处理器时,且所述图形处理器的计算能力小于第二预设阈值时表示虽然存在图形处理器,但是图形处理器的计算能力较小不适合运行较大计算量的数据,此时也可检测目标模型文件中是否存在CUDA并行程序格式对应的张量。若存在CUDA并行程序格式对应的张量,则将CUDA并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序,可以将数据计算再转移至CPU。
本申请可先在网络模型开始执行推理任务时,检测是否存在图形处理器;并在存在图形处理器时,确定网络模型的文件中目标计算结构;目标计算结构包括矩阵乘法;确定与目标计算结构关联的张量,作为目标张量,所述目标张量包括同一数据类型元素的多维矩阵;检测目标张量的源程序格式要求是否满足预设CUDA并行程序格式要求;然后在目标张量的源程序格式要求不满足预设CUDA并行程序格式要求时,按照预设CUDA并行程序格式要求对目标张量的源程序格式进行修改;基于图形处理器根据修改后的目标张量的源程序对推理任务进行预测推理。由于将目标计算结构中关联的张量,转变为GPU加速的张量。可自动适配GPU进行加速推理,从而提高了对网络模型进行加速推理的便捷性。
实施例二
本实施例是对实施例一的进一步说明,与实施例一相同或相似的地方,具体可参见实施例一的相关描述,此处不再赘述。如图2所示,步骤S201至步骤S203可作为上述步骤S103的一种实现方式:
步骤S201,确定与所述目标计算结构关联的张量。
具体地,目标计算结构关联的张量可以是目标计算结构中计算需要用到的张量,张量tensor是一种包含同一数据类型元素的多维矩阵,是torch库的核心类。
步骤S202,确定与所述目标计算结构关联的张量的维度。
具体地,矩阵乘法中对应张量的维度越大,CPU的计算效率越低,因此可确定张量的维度,根据张量的维度再考虑是否将张量按照CUDA并行程序格式要求进行修改。
步骤S203,在与所述目标计算结构关联的所有张量中任一个张量的维度大于第一预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。
具体地,与目标计算结构关联的所有张量中任一个张量的维度大于第一预设阈值时,认为该目标计算结构对应的计算量会较大,可将与所述目标计算结构关联的所有张量均确定为所述目标张量,以通过GPU进行处理。
在一个实施例中,在确定与所述目标计算结构关联的张量的维度之后,还包括:在与所述目标计算结构关联的所有张量中任两个张量的维度大于第二预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量;其中所述第二预设阈值小于所述第一预设阈值。
具体地,与目标计算结构关联的所有张量中任两个张量的维度大于第二预设阈值时,认为该目标计算结构对应的计算量也会较大,可将与所述目标计算结构关联的所有张量均确定为所述目标张量,以通过GPU进行处理。
本申请实施例可确定与所述目标计算结构关联的张量的维度;在与所述目标计算结构关联的所有张量中任一个张量的维度大于第一预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。可根据张量的维度确定是否通过GPU进行处理。可更智能根据实际环境对的网络模型推理进行加速。
实施例三
本实施例是对实施例一的进一步说明,与实施例一相同或相似的地方,具体可参见实施例一的相关描述,此处不再赘述。如图3所示,步骤S301至步骤S305可作为上述步骤S103的一种实现方式:
步骤S301,确定与所述目标计算结构关联的张量。
步骤S302,确定与所述目标计算结构关联的张量的维度。
具体地,步骤S301和步骤S302与上述步骤S201和步骤S202相同或相似的地方可参阅上述步骤S201和步骤S202的描述,此处不再赘述。
步骤S303,确定所述图形处理器的计算能力值。
具体地,可先确定终端设备GPU的计算能力,如可根据图形处理器当前的空闲内存的大小,确定出图形处理器的计算能力值。
步骤S304,基于预设关系映射表,获取与所述计算能力值相对应的目标阈值。
具体地,预先存储不同的计算能力对应目的阈值,计算能力值相对应的阈值可设置的越小,如计算能力较大的GPU可以将所有矩阵乘法中的张量都按照CUDA并行程序格式要求进行修改,计算能力一般的GPU,则可以将所有矩阵乘法中的张量中部分按照CUDA并行程序格式要求进行修改,从而可考虑GPU的计算能力,确定需要GPU进行加速的矩阵乘法,获取与所述计算能力相对应的阈值,称为目标阈值。
步骤S305,在与所述目标计算结构关联的所有张量中任一个张量的维度大于所述目标阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。
具体地,与目标计算结构关联的所有张量中任一个张量的维度大于第一预设阈值时,认为该目标计算结构对应的计算量会较大,可将与所述目标计算结构关联的所有张量均确定为所述目标张量,以通过GPU进行处理。
本申请实施例,确定所述图形处理器的计算能力值;基于预设关系映射表,获取与所述计算能力值相对应的目标阈值;在与所述目标计算结构关联的所有张量中任一个张量的维度大于所述目标阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。从而可考虑GPU的计算能力,确定需要GPU进行加速的矩阵乘法,进一步智能地根据实际环境对的网络模型推理进行加速。
实施例四
对应于上文实施例的网络模型推理加速的方法,图4示出了本申请实施例提供一种网络模型推理加速的装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分,所述一种网络模型推理加速的装置400包括:
获取模块401,用于在所述网络模型开始执行推理任务时,检测是否存在图形处理器;
第一确定模块402,用于在存在所述图形处理器时,确定所述网络模型的文件中目标计算结构;所述目标计算结构包括矩阵乘法;
第二确定模块403,用于确定与所述目标计算结构关联的张量,作为目标张量,所述目标张量包括同一数据类型元素的多维矩阵;
第一检测模块404,用于检测所述目标张量的源程序格式是否满足预设CUDA并行程序格式要求;
第一修改模块405,用于在所述目标张量的源程序格式要求不满足预设CUDA并行程序格式要求时,按照预设CUDA并行程序格式要求对目标张量的源程序格式进行修改;
预测推理模块406,用于所述图形处理器根据修改后的目标张量的源程序对推理任务进行预测推理。
在一个实施例中,所述第二确定模块包括:
第一确定单元,用于确定与所述目标计算结构关联的张量;
第二确定单元,用于确定与所述目标计算结构关联的张量的维度;
第三确定单元,用于在与所述目标计算结构关联的所有张量中任一个张量的维度大于第一预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。
在一个实施例中,第二确定模块还包括:
第四确定单元,用于在与所述目标计算结构关联的所有张量中任两个张量的维度大于第二预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量;其中所述第二预设阈值小于所述第一预设阈值。
在另一个实施例中,所述第二确定模块包括:
第五确定单元,用于确定与所述目标计算结构关联的张量;
第六确定单元,用于确定与所述目标计算结构关联的张量的维度;
第七确定单元,用于确定所述图形处理器的计算能力值;
获取单元,用于基于预设关系映射表,获取与所述计算能力值相对应的目标阈值;
第八确定单元,用于在与所述目标计算结构关联的所有张量中任一个张量的维度大于所述目标阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。
在一个实施例中,所述装置还包括:
第二检测模块,用于在不存在所述图形处理器时,检测是否存在CUDA并行程序格式对应的张量;
第二修改模块,用于若存在CUDA并行程序格式对应的张量,则将CUDA并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序。
在一个实施例中,所述装置还包括:
第三检测模块,用于在存在所述图形处理器时,且所述图形处理器的计算能力小于第二预设阈值时,检测是否存在CUDA并行程序格式对应的张量;
第三修改模块,用于若存在CUDA并行程序格式对应的张量,则将CUDA并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序。
在一个实施例中,所述获取模块具体包括:
获取单元,用于所述网络模型开始执行推理任务时,获取所述终端设备包括处理器的设备信息;
第一判定单元,用于若所述终端设备中存在与图形处理器的设备信息相匹配的设备信息,则判定存在所述图形处理器;
第二判定单元,用于若所述终端设备中不存在与图形处理器的设备信息相匹配的设备信息,则判定不存在所述图形处理器。
由于本申请可先在网络模型开始执行推理任务时,检测是否存在图形处理器;并在存在图形处理器时,确定网络模型的文件中目标计算结构;目标计算结构包括矩阵乘法;确定与目标计算结构关联的张量,作为目标张量,所述目标张量包括同一数据类型元素的多维矩阵;检测目标张量的源程序格式要求是否满足预设CUDA并行程序格式要求;然后在目标张量的源程序格式要求不满足预设CUDA并行程序格式要求时,按照预设CUDA并行程序格式要求对目标张量的源程序格式进行修改;基于图形处理器根据修改后的目标张量的源程序对推理任务进行预测推理。由于将目标计算结构中关联的张量,转变为GPU加速的张量。可自动适配GPU进行加速推理,从而提高了对网络模型进行加速推理的便捷性。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
实施例五
如图5所示,本申请的一个实施例还提供一种终端设备500包括:处理器501,存储器502以及存储在所述存储器502中并可在所述处理器501上运行的计算机程序503,例如网络模型推理加速程序。所述处理器501执行所述计算机程序503时实现上述各个网络模型推理加速的方法实施例中的步骤。所述处理器501执行所述计算机程序503时实现上述各装置实施例中各模块的功能,例如图5所示模块401至406的功能。
示例性的,所述计算机程序503可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器502中,并由所述处理器501执行,以完成本发明。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序503在所述终端设备500中的执行过程。例如,所述计算机程序503可以被分割成获取模块,第一确定模块,第二确定模块,第一检测模块,第一修改模块和预测推理模块等,各模块具体功能在上述实施例中已有描述,此处不再赘述。
所述终端设备500可包括,但不仅限于,处理器501,存储器502。本领域技术人员可以理解,图5仅仅是终端设备500的示例,并不构成对终端设备500的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述计算设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器501可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器502可以是所述终端设备500的内部存储单元,例如终端设备500的硬盘或内存。所述存储器502也可以是所述终端设备500的外部存储设备,例如所述终端设备500上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器502还可以既包括所述终端设备500的内部存储单元也包括外部存储设备。所述存储器502用于存储所述计算机程序以及所述计算设备所需的其他程序和数据。所述存储器502还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/计算设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种网络模型推理加速的方法,其特征在于,应用于部署网络模型的终端设备,所述方法包括:
在所述网络模型开始执行推理任务时,检测是否存在图形处理器;
在存在所述图形处理器时,确定所述网络模型的文件中目标计算结构;所述目标计算结构包括矩阵乘法;
确定与所述目标计算结构关联的张量,作为目标张量,所述目标张量包括同一数据类型元素的多维矩阵;
检测所述目标张量的源程序格式是否满足预设计算统一设备架构并行程序格式要求;
在所述目标张量的源程序格式要求不满足预设计算统一设备架构并行程序格式要求时,按照预设计算统一设备架构并行程序格式要求对目标张量的源程序格式进行修改;
基于所述图形处理器根据修改后的目标张量的源程序对推理任务进行预测推理。
2.根据权利要求1所述的方法,其特征在于,所述确定与所述目标计算结构关联的张量,作为目标张量,包括:
确定与所述目标计算结构关联的张量;
确定与所述目标计算结构关联的张量的维度;
在与所述目标计算结构关联的所有张量中任一个张量的维度大于第一预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。
3.根据权利要求2所述的方法,其特征在于,在确定与所述目标计算结构关联的张量的维度之后,还包括:
在与所述目标计算结构关联的所有张量中任两个张量的维度大于第二预设阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量;其中所述第二预设阈值小于所述第一预设阈值。
4.根据权利要求1所述的方法,其特征在于,所述确定与所述目标计算结构关联的张量,作为目标张量,包括:
确定与所述目标计算结构关联的张量;
确定与所述目标计算结构关联的张量的维度;
确定所述图形处理器的计算能力值;
基于预设关系映射表,获取与所述计算能力值相对应的目标阈值;
在与所述目标计算结构关联的所有张量中任一个张量的维度大于所述目标阈值时,将与所述目标计算结构关联的所有张量均确定为所述目标张量。
5.根据权利要求1所述的方法,其特征在于,在网络模型执行推理任务时,检测是否存在图形处理器之后,包括:
在不存在所述图形处理器时,检测是否存在计算统一设备架构并行程序格式对应的张量;
若存在计算统一设备架构并行程序格式对应的张量,则将计算统一设备架构并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序。
6.根据权利要求3所述的方法,其特征在于,在网络模型执行推理任务时,检测是否存在图形处理器之后,还包括:
在存在所述图形处理器时,且所述图形处理器的计算能力小于第二预设阈值时,检测是否存在计算统一设备架构并行程序格式对应的张量;
若存在计算统一设备架构并行程序格式对应的张量,则将计算统一设备架构并行程序格式对应张量的源程序格式修改为CPU计算格式张量的源程序。
7.根据权利要求1至6任一项所述的方法,其特征在于,在所述网络模型开始执行推理任务时,检测是否存在图形处理器,包括:
所述网络模型开始执行推理任务时,获取所述终端设备包括处理器的设备信息;
若所述终端设备中存在与图形处理器的设备信息相匹配的设备信息,则判定存在所述图形处理器;
若所述终端设备中不存在与图形处理器的设备信息相匹配的设备信息,则判定不存在所述图形处理器。
8.一种网络模型推理加速的装置,其特征在于,应用于部署网络模型的终端设备,所述装置包括:
获取模块,用于在所述网络模型开始执行推理任务时,检测是否存在图形处理器;
第一确定模块,用于在存在所述图形处理器时,确定所述网络模型的文件中目标计算结构;所述目标计算结构包括矩阵乘法;
第二确定模块,用于确定与所述目标计算结构关联的张量,作为目标张量,所述目标张量包括同一数据类型元素的多维矩阵;
第一检测模块,用于检测所述目标张量的源程序格式是否满足预设计算统一设备架构并行程序格式要求;
第一修改模块,用于在所述目标张量的源程序格式要求不满足预设计算统一设备架构并行程序格式要求时,按照预设计算统一设备架构并行程序格式要求对目标张量的源程序格式进行修改;
预测推理模块,用于所述图形处理器根据修改后的目标张量的源程序对推理任务进行预测推理。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
CN202111536025.XA 2021-12-15 2021-12-15 网络模型推理加速的方法、装置、设备及存储介质 Pending CN114219091A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111536025.XA CN114219091A (zh) 2021-12-15 2021-12-15 网络模型推理加速的方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111536025.XA CN114219091A (zh) 2021-12-15 2021-12-15 网络模型推理加速的方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN114219091A true CN114219091A (zh) 2022-03-22

Family

ID=80702553

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111536025.XA Pending CN114219091A (zh) 2021-12-15 2021-12-15 网络模型推理加速的方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN114219091A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024000187A1 (en) * 2022-06-28 2024-01-04 Intel Corporation Deep learning workload sharding on heterogeneous devices

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024000187A1 (en) * 2022-06-28 2024-01-04 Intel Corporation Deep learning workload sharding on heterogeneous devices

Similar Documents

Publication Publication Date Title
CN109934285B (zh) 一种基于深度学习的图像分类神经网络压缩模型的系统
CN110826708B (zh) 一种用多核处理器实现神经网络模型拆分方法及相关产品
CN111240640B (zh) 基于硬件环境的数据量化方法、装置及可读存储介质
CN113159273B (zh) 一种神经网络的训练方法及相关设备
CN110659069B (zh) 用于执行神经网络计算的指令调度方法及相应计算系统
CN108170425B (zh) 一种程序代码的修改方法、修改装置及终端设备
WO2022048557A1 (zh) Ai模型的训练方法、装置、计算设备和存储介质
CN113065997B (zh) 一种图像处理方法、神经网络的训练方法以及相关设备
CN114490116B (zh) 数据处理方法、装置、电子设备及存储介质
CN111767056A (zh) 一种源码编译方法、可执行文件运行方法及终端设备
CN114219091A (zh) 网络模型推理加速的方法、装置、设备及存储介质
CN115129460A (zh) 获取算子硬件时间的方法、装置、计算机设备和存储介质
US11256940B1 (en) Method, apparatus and system for gradient updating of image processing model
CN111860824A (zh) 一种数据处理方法及相关产品
WO2022267364A1 (zh) 一种信息推荐方法、设备及存储介质
CN114724103A (zh) 神经网络处理系统、指令生成方法、装置及电子设备
CN114048847A (zh) 一种图神经网络数据缓存方法、装置、设备及存储介质
CN113011580B (zh) 一种嵌入表征的处理方法以及相关设备
CN111860825A (zh) 一种数据处理方法及相关产品
EP4357978A1 (en) Deep neural network (dnn) accelerator facilitating quantized inference
CN114020476B (zh) 一种作业的处理方法、设备及介质
CN113031962B (zh) 编译方法、编译装置、电子设备、存储介质和程序产品
CN115762515B (zh) 用于语音识别的神经网络的处理和应用方法、装置及设备
CN114912544B (zh) 自动化特征工程模型的训练方法及自动化特征工程方法
CN113869225A (zh) 一种人脸检测方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination