CN113554154A - 一种卷积运算方法、装置、设备及存储介质 - Google Patents

一种卷积运算方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113554154A
CN113554154A CN202110843608.0A CN202110843608A CN113554154A CN 113554154 A CN113554154 A CN 113554154A CN 202110843608 A CN202110843608 A CN 202110843608A CN 113554154 A CN113554154 A CN 113554154A
Authority
CN
China
Prior art keywords
convolution
target
algorithm
layer
convolution algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110843608.0A
Other languages
English (en)
Inventor
陈永青
胡辰
卜景德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongke Shuguang International Information Industry Co ltd
Original Assignee
Zhongke Shuguang International Information Industry Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongke Shuguang International Information Industry Co ltd filed Critical Zhongke Shuguang International Information Industry Co ltd
Priority to CN202110843608.0A priority Critical patent/CN113554154A/zh
Publication of CN113554154A publication Critical patent/CN113554154A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例公开了一种卷积运算方法、装置、设备及存储介质,其中,方法包括:在目标卷积层的运算过程中,获取目标卷积层的卷积参数组;将目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与目标卷积层对应的目标卷积算法、以及与目标卷积算法对应的预测运行时间;使用目标卷积算法对目标卷积层进行卷积运算。本发明实施例可以在目标卷积层的运算过程中,通过预先训练的卷积算法预测模型,根据目标卷积层的卷积参数组,快速而准确地确定对目标卷积层进行卷积运算的运行时间最短的目标卷积算法,即与目标卷积层对应的可以达到最优的卷积运算加速效果的最优卷积算法。

Description

一种卷积运算方法、装置、设备及存储介质
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种卷积运算方法、装置、设备及存储介质。
背景技术
神经网络的运算量主要集中在卷积层。确定可以达到最优的卷积运算加速效果的最优卷积算法,使用最优卷积算法对神经网络中卷积层进行卷积运算,成为优化神经网络运算的一个重要方面。
相关技术中,神经网络运算中的最优卷积算法确定过程通常分为两种:第一,根据针对卷积运算的经验以及测试结果,指定某种卷积算法为固定的最优卷积算法;第二,在进行神经网络的运算前,使用适用的各卷积算法对神经网络中卷积层进行卷积运算,得到适用的各卷积算法的运行时间,逐一比对各卷积算法的运行时间,将运行时间最短的卷积算法确定为最优卷积算法。
相关技术的缺陷在于:第一种方式中,固定的最优卷积算法不能确保在每种情况下都能达到最优的卷积运算加速效果;第二种方式中,逐一比对运行时间的方式虽然能够得出可以达到最优的卷积运算加速效果的最优卷积算法,但是随着卷积算法的增多,该方式会导致神经网络运算的复杂化,导致神经网络运算中的最优卷积算法确定过程的耗时增加。
发明内容
本发明实施例提供了一种卷积运算方法、装置、设备及存储介质,可以针对卷积层,快速而准确地预测出一个可以达到最优的卷积运算加速效果的最优卷积算法,使用最优卷积算法对卷积层进行卷积运算。
第一方面,本发明实施例提供了一种卷积运算方法,包括:
在目标卷积层的运算过程中,获取所述目标卷积层的卷积参数组,所述卷积参数组中包括所述目标卷积层的至少一项卷积参数;
将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间;
其中,所述目标卷积算法是各个预设卷积算法中对所述目标卷积层进行卷积运算的运行时间最短的卷积算法,所述预测运行时间是预测的使用所述目标卷积算法对所述目标卷积层进行卷积运算的运行时间;
使用所述目标卷积算法对所述目标卷积层进行卷积运算。
可选的,在获取所述目标卷积层的卷积参数组之前,还包括:
获取设定数量的卷积层的卷积参数组、以及与各所述卷积层对应的卷积算法运行时间,并对各所述卷积层的卷积参数组中的卷积参数进行归一化处理;
根据与各所述卷积层对应的卷积算法运行时间,在各个预设卷积算法中确定与各所述卷积层对应的目标卷积算法;
将各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间作为训练样本,对机器学习模型进行训练,得到卷积算法预测模型;
其中,所述卷积算法预测模型的输入为卷积层的卷积参数组,输出为与卷积层对应的目标卷积算法的标识信息、与目标卷积算法对应的预测运行时间。
可选的,所述将各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间作为训练样本,对机器学习模型进行训练,得到卷积算法预测模型,包括:
将由各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间构成的训练样本划分为训练样本集合以及测试样本集合;
使用所述训练样本集合对机器学习模型进行训练,得到卷积算法预测模型;
使用所述测试样本集合对所述卷积算法预测模型进行测试。
可选的,所述将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间,包括:
对所述目标卷积层的卷积参数组进行归一化处理;
将归一化处理后的所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,得到所述卷积算法预测模型输出的与所述目标卷积层对应的目标卷积算法的标识信息、与所述目标卷积算法对应的预测运行时间。
可选的,所述使用所述目标卷积算法对所述目标卷积层进行卷积运算,包括:
根据所述目标卷积算法的标识信息,确定与所述目标卷积算法对应的硬件加速器;
将所述目标卷积层的各项卷积参数输入至所述硬件加速器,以使所述硬件加速器使用所述目标卷积算法,根据所述目标卷积层的各项卷积参数对所述目标卷积层进行卷积加速运算。
可选的,在确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间之后,还包括:
判断所述目标卷积算法以及所述预测运行时间是否满足预设运算条件;
在所述目标卷积算法以及所述预测运行时间满足预设运算条件时,使用所述目标卷积算法对所述目标卷积层进行卷积运算。
可选的,在判断所述目标卷积算法以及所述预测运行时间是否满足预设运算条件之后,还包括:
在所述目标卷积算法以及所述预测运行时间不满足预设运算条件时,使用预设的备选卷积算法对所述目标卷积层进行卷积运算。
第二方面,本发明实施例还提供了一种卷积运算装置,包括:
参数组获取模块,用于在目标卷积层的运算过程中,获取所述目标卷积层的卷积参数组,所述卷积参数组中包括所述目标卷积层的至少一项卷积参数;
算法预测模块,用于将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间;
其中,所述目标卷积算法是各个预设卷积算法中对所述目标卷积层进行卷积运算的运行时间最短的卷积算法,所述预测运行时间是预测的使用所述目标卷积算法对所述目标卷积层进行卷积运算的运行时间;
卷积运算模块,用于使用所述目标卷积算法对所述目标卷积层进行卷积运算。
第三方面,本发明实施例还提供了一种计算机设备,所述计算机设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明任意实施例所述的卷积运算方法。
第四方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时实现本发明任意实施例所述的卷积运算方法。
本发明实施例提供的技术方案,通过在目标卷积层的运算过程中,获取目标卷积层的卷积参数组,然后将目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与目标卷积层对应的目标卷积算法,确定与目标卷积算法对应的预测运行时间;最后使用目标卷积算法对所述目标卷积层进行卷积运算,可以在目标卷积层的运算过程中,通过预先训练的卷积算法预测模型,根据目标卷积层的卷积参数组,快速而准确地确定对目标卷积层进行卷积运算的运行时间最短的目标卷积算法,即与目标卷积层对应的可以达到最优的卷积运算加速效果的最优卷积算法,进而使用最优卷积算法对目标卷积层进行卷积运算;可以训练出一个用于接收卷积层的卷积参数组,输出各个预设卷积算法中对卷积层进行卷积运算的运行时间最短的目标卷积算法、以及使用目标卷积算法对卷积层进行卷积运算的运行时间的卷积算法预测模型,从而便于在卷积层的运算过程中,根据卷积层的卷积参数组,快速而准确地确定对卷积层进行卷积运算的运行时间最短的卷积算法,即与卷积层对应的可以达到最优的卷积运算加速效果的最优卷积算法;可以根据设定数量的卷积层的卷积参数组和卷积算法性能数据,确定出训练样本集合和测试样本集合,通过训练样本集合训练出卷积算法预测模型,通过测试样本集合对训练完成的卷积算法预测模型进行测试;可以在通过预先训练的卷积算法预测模型,确定出对目标卷积层进行卷积运算的运行时间最短的目标卷积算法之后,使用所述目标卷积算法以及与所述目标卷积算法对应的硬件加速器,对所述目标卷积层进行卷积加速运算;可以通过预设运算条件,检测通过预先训练的卷积算法预测模型确定出的所述目标卷积算法以及所述预测运行时间是否正常,在所述目标卷积算法以及所述预测运行时间满足预设运算条件时,使用所述目标卷积算法对所述目标卷积层进行卷积运算,在所述目标卷积算法以及所述预测运行时间不满足预设运算条件时,使用备选卷积算法对所述目标卷积层进行卷积运算,提高目标卷积层的卷积运算过程的安全性和准确性。
附图说明
图1为本发明实施例一提供的一种卷积运算方法的流程图。
图2为本发明实施例二提供的一种卷积运算方法的流程图。
图3为本发明实施例三提供的一种卷积运算方法的流程图。
图4为本发明实施例四提供的一种卷积运算装置的结构示意图。
图5为本发明实施例五提供的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种卷积运算方法的流程图。本发明实施例可适用于在神经网络运算过程中,针对神经网络中卷积层,确定可以达到最优的卷积运算加速效果的最优卷积算法,使用最优卷积算法对神经网络中卷积层进行卷积运算的情况。该方法可以由本发明实施例提供的卷积运算装置来执行,该装置可采用软件和/或硬件的方式实现,并一般可集成在计算机设备中。例如,服务器。如图1所示,本发明实施例的方法具体包括:
步骤101、在目标卷积层的运算过程中,获取所述目标卷积层的卷积参数组,所述卷积参数组中包括所述目标卷积层的至少一项卷积参数。
可选的,目标卷积层为在计算机设备中运行使用的神经网络中的任一卷积层。目标卷积层的卷积参数组是由与目标卷积层的卷积运算过程相关的至少一项卷积参数构成的。计算机设备可以识别神经网络中的各卷积层,并可以提取各卷积层的卷积参数组。
可选的,所述目标卷积层的卷积参数组中的卷积参数可以包括所述目标卷积层的批处理大小、输入通道、高、宽、卷积核通道、卷积核的高、卷积核的宽、卷积核在水平方向上的步长、卷积核在垂直方向上的步长等。
可选的,在目标卷积层的运算过程中,识别所述目标卷积层,提取所述目标卷积层的卷积参数组。
步骤102、将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间。
其中,所述目标卷积算法是各个预设卷积算法中对所述目标卷积层进行卷积运算的运行时间最短的卷积算法,所述预测运行时间是预测的使用所述目标卷积算法对所述目标卷积层进行卷积运算的运行时间。
可选的,预设卷积算法包括但不限于:直接卷积、隐式卷积、Winograd快速卷积算法。
可选的,卷积算法预测模型用于接收卷积层的卷积参数组,输出与卷积层对应的目标卷积算法的标识信息、与目标卷积算法对应的预测运行时间。
可选的,在获取所述目标卷积层的卷积参数组之前,还包括:获取设定数量的卷积层的卷积参数组、以及与各所述卷积层对应的卷积算法运行时间,并对各所述卷积层的卷积参数组中的卷积参数进行归一化处理;根据与各所述卷积层对应的卷积算法运行时间,在各个预设卷积算法中确定与各所述卷积层对应的目标卷积算法;将各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间作为训练样本,对机器学习模型进行训练,得到卷积算法预测模型;其中,所述卷积算法预测模型的输入为卷积层的卷积参数组,输出为与卷积层对应的目标卷积算法的标识信息、与目标卷积算法对应的预测运行时间。
可选的,预先设置各个预设卷积算法的标识信息。一个预设卷积算法对应一个标识信息。标识信息可以为数字标识。
可选的,与卷积层对应的卷积算法运行时间包括:使用各个预设卷积算法对卷积层进行卷积运算的运行时间。
可选的,获取设定数量的卷积层的卷积参数组、以及与各所述卷积层对应的卷积算法运行时间,包括:获取设定数量的卷积层,识别各所述卷积层,抽取各所述卷积层的卷积参数组;然后针对每一个卷积层,依次将卷积层的各项卷积参数输入至与各个预设卷积算法对应的硬件加速器,以使各个预设卷积算法对应的硬件加速器使用相应的卷积算法,根据卷积层的各项卷积参数对卷积层进行卷积加速运算,得到使用各个预设卷积算法对卷积层进行卷积运算的运行时间,即与卷积层对应的卷积算法运行时间。
可选的,对各所述卷积层的卷积参数组中的卷积参数进行归一化处理,包括:按照预设的归一化处理规则对各所述卷积层的卷积参数组中的卷积参数进行归一化处理。由此,通过归一化处理对卷积参数组中的各卷积参数的数量级进行统一,避免数量级差异对卷积算法预测模型的准确度造成影响。
可选的,根据与各所述卷积层对应的卷积算法运行时间,在各个预设卷积算法中确定与各所述卷积层对应的目标卷积算法,包括:针对每一个卷积层执行以下操作:按照运行时间从短到长的顺序,对使用各个预设卷积算法对卷积层进行卷积运算的运行时间进行排序;根据排序结果,确定各个预设卷积算法中对卷积层进行卷积运算的运行时间最短的目标卷积算法。
可选的,机器学习模型包括但不限于神经网络模型。将各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间作为训练样本,对预先设定的神经网络模型进行训练,确定神经网络模型的参数,得到卷积算法预测模型。卷积算法预测模型的输入为卷积层的卷积参数组,输出为与卷积层对应的目标卷积算法的标识信息、与目标卷积算法对应的预测运行时间。
由此,通过根据设定数量的卷积层的卷积参数组、以及与各卷积层对应的卷积算法运行时间,确定出卷积算法预测模型的训练样本,然后使用训练样本对机器学习模型进行训练,得到卷积算法预测模型,可以根据设定数量的卷积层的卷积参数组和卷积算法性能数据,确定出一个包含不同卷积参数组、以及与各卷积参数组对应的目标卷积算法的标识信息和运行时间的训练样本,可以训练出一个用于接收卷积层的卷积参数组,输出各个预设卷积算法中对卷积层进行卷积运算的运行时间最短的目标卷积算法、以及使用目标卷积算法对卷积层进行卷积运算的运行时间的卷积算法预测模型,从而便于在卷积层的运算过程中,根据卷积层的卷积参数组,快速而准确地确定对卷积层进行卷积运算的运行时间最短的卷积算法,即与卷积层对应的可以达到最优的卷积运算加速效果的最优卷积算法。
可选的,所述将各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间作为训练样本,对机器学习模型进行训练,得到卷积算法预测模型,包括:将由各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间构成的训练样本划分为训练样本集合以及测试样本集合;使用所述训练样本集合对机器学习模型进行训练,得到卷积算法预测模型;使用所述测试样本集合对所述卷积算法预测模型进行测试。
可选的,根据预设的划分比例,将由各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间构成的训练样本划分为训练样本集合以及测试样本集合。
在一个具体实例中,训练样本中包含200个卷积层的归一化处理后的卷积参数组、对应的目标卷积算法的标识信息和运行时间。将训练样本70%的样本数据,即140个卷积层的归一化处理后的卷积参数组、对应的目标卷积算法的标识信息和运行时间,划分为训练样本集。将训练样本30%的样本数据,即60个卷积层的归一化处理后的卷积参数组、对应的目标卷积算法的标识信息和运行时间,划分为测试样本集合。
可选的,使用所述测试样本集合对所述卷积算法预测模型进行测试,包括:针对测试样本集合中的每一个卷积层,执行下述操作:将卷积层的归一化处理后的卷积参数组输入至所述卷积算法预测模型,得到所述卷积算法预测模型输出的卷积层对应的目标卷积算法的标识信息、与目标卷积算法对应的预测运行时间;比较所述卷积算法预测模型输出的卷积层对应的目标卷积算法的标识信息与测试样本集合中卷积层对应的目标卷积算法的标识信息是否一致;比较所述卷积算法预测模型输出的与目标卷积算法对应的预测运行时间与测试样本集合中卷积层对应的目标卷积算法的运行时间是否一致;如果两个比较结果都为一致,则确定与卷积层对应的测试结果为测试通过;如果两个比较结果中存在不一致的比较结果,则确定与卷积层对应的测试结果为测试未通过。在完成对测试样本集合中的全部卷积层的处理之后,统计测试结果为测试通过的卷积层的个数,将测试结果为测试通过的卷积层的个数与测试样本集合中的卷积层总数的比值确定为所述卷积算法预测模型的准确度。
在一个具体实例中,测试结果为测试通过的卷积层的个数为54,测试样本集合中的卷积层总数为60。将测试结果为测试通过的卷积层的个数与测试样本集合中的卷积层总数的比值确定为所述卷积算法预测模型的准确度,即所述卷积算法预测模型的准确度为0.9。
由此,可以根据设定数量的卷积层的卷积参数组和卷积算法性能数据,确定出训练样本集合和测试样本集合,通过训练样本集合训练出卷积算法预测模型,通过测试样本集合对训练完成的卷积算法预测模型进行测试。
可选的,所述将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间,包括:对所述目标卷积层的卷积参数组进行归一化处理;将归一化处理后的所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,得到所述卷积算法预测模型输出的与所述目标卷积层对应的目标卷积算法的标识信息、与所述目标卷积算法对应的预测运行时间。按照预设的归一化处理规则对各所述卷积层的卷积参数组中的卷积参数进行归一化处理,将归一化处理后的所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,得到与所述目标卷积层对应的目标卷积算法的标识信息、与所述目标卷积算法对应的预测运行时间。
由此,在目标卷积层的运算过程中,通过预先训练的卷积算法预测模型,根据目标卷积层的卷积参数组,快速而准确地确定对目标卷积层进行卷积运算的运行时间最短的目标卷积算法,即与目标卷积层对应的可以达到最优的卷积运算加速效果的最优卷积算法。
步骤103、使用所述目标卷积算法对所述目标卷积层进行卷积运算。
可选的,在通过预先训练的卷积算法预测模型,确定出对目标卷积层进行卷积运算的运行时间最短的目标卷积算法之后,使用所述目标卷积算法对所述目标卷积层进行卷积运算。
可选的,所述使用所述目标卷积算法对所述目标卷积层进行卷积运算,包括:根据所述目标卷积算法的标识信息,确定与所述目标卷积算法对应的硬件加速器;将所述目标卷积层的各项卷积参数输入至所述硬件加速器,以使所述硬件加速器使用所述目标卷积算法,根据所述目标卷积层的各项卷积参数对所述目标卷积层进行卷积加速运算。
可选的,预先设置各个预设卷积算法的标识信息与各个预设卷积算法的硬件加速器之间的对应关系。预设卷积算法的硬件加速器是用于使用预设卷积算法,根据接收的卷积层的各项卷积参数对卷积层进行卷积加速运算的硬件加速器。根据各个预设卷积算法的标识信息与各个预设卷积算法的硬件加速器之间的对应关系、以及所述目标卷积算法的标识信息,确定与所述目标卷积算法对应的硬件加速器。将所述目标卷积层的各项卷积参数输入至与所述目标卷积算法对应的硬件加速器,以使与所述目标卷积算法对应的硬件加速器使用所述目标卷积算法,根据所述目标卷积层的各项卷积参数对所述目标卷积层进行卷积加速运算。
由此,在通过预先训练的卷积算法预测模型,确定出对目标卷积层进行卷积运算的运行时间最短的目标卷积算法之后,使用所述目标卷积算法以及与所述目标卷积算法对应的硬件加速器,对所述目标卷积层进行卷积加速运算。
可选的,在确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间之后,还包括:判断所述目标卷积算法以及所述预测运行时间是否满足预设运算条件;在所述目标卷积算法以及所述预测运行时间满足预设运算条件时,使用所述目标卷积算法对所述目标卷积层进行卷积运算。预设运算条件是用于检测通过预先训练的卷积算法预测模型确定出的所述目标卷积算法以及所述预测运行时间是否正常的条件。预设运算条件可以包括:各个预设卷积算法的标识信息中存在与所述目标卷积算法的标识信息一致的标识信息;所述预测运行时间小于预设的运行时间阈值。
可选的,判断所述目标卷积算法以及所述预测运行时间是否满足预设运算条件,包括:判断各个预设卷积算法的标识信息中是否存在与所述目标卷积算法的标识信息一致的标识信息;如果各个预设卷积算法的标识信息中不存在与所述目标卷积算法的标识信息一致的标识信息,则确定所述目标卷积算法以及所述预测运行时间不满足预设运算条件;如果各个预设卷积算法的标识信息中存在与所述目标卷积算法的标识信息一致的标识信息,则判断所述预测运行时间是否小于预设的运行时间阈值;如果所述预测运行时间小于预设的运行时间阈值,则确定所述目标卷积算法以及所述预测运行时间满足预设运算条件;如果所述预测运行时间大于等于预设的运行时间阈值,则确定所述目标卷积算法以及所述预测运行时间不满足预设运算条件。
由此,通过预设运算条件,检测通过预先训练的卷积算法预测模型确定出的所述目标卷积算法以及所述预测运行时间是否正常,在所述目标卷积算法以及所述预测运行时间满足预设运算条件时,使用所述目标卷积算法对所述目标卷积层进行卷积运算,提高目标卷积层的卷积运算过程的安全性和准确性。
可选的,在判断所述目标卷积算法以及所述预测运行时间是否满足预设运算条件之后,还包括:在所述目标卷积算法以及所述预测运行时间不满足预设运算条件时,使用预设的备选卷积算法对所述目标卷积层进行卷积运算。预设的备选卷积算法是在检测到通过预先训练的卷积算法预测模型确定出的所述目标卷积算法以及所述预测运行时间异常的情况下,使用的备选卷积算法。预先在各个预设卷积算法中指定一个预设卷积算法,作为备选卷积算法。
由此,通过预设运算条件,检测通过预先训练的卷积算法预测模型确定出的所述目标卷积算法以及所述预测运行时间是否正常,在所述目标卷积算法以及所述预测运行时间不满足预设运算条件时,使用备选卷积算法对所述目标卷积层进行卷积运算,提高目标卷积层的卷积运算过程的安全性和准确性。
本发明实施例的技术方案,提供了一种卷积运算方法,通过在目标卷积层的运算过程中,获取目标卷积层的卷积参数组,然后将目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与目标卷积层对应的目标卷积算法,确定与目标卷积算法对应的预测运行时间;最后使用目标卷积算法对所述目标卷积层进行卷积运算,可以在目标卷积层的运算过程中,通过预先训练的卷积算法预测模型,根据目标卷积层的卷积参数组,快速而准确地确定对目标卷积层进行卷积运算的运行时间最短的目标卷积算法,即与目标卷积层对应的可以达到最优的卷积运算加速效果的最优卷积算法,进而使用最优卷积算法对目标卷积层进行卷积运算。
实施例二
图2为本发明实施例二提供的一种卷积运算方法的流程图。本发明实施例可以与上述一个或者多个实施例中各个可选方案结合。如图2所示,本发明实施例的方法具体包括:
步骤201、在目标卷积层的运算过程中,获取所述目标卷积层的卷积参数组,所述卷积参数组中包括所述目标卷积层的至少一项卷积参数。
可选的,在获取所述目标卷积层的卷积参数组之前,还包括:获取设定数量的卷积层的卷积参数组、以及与各所述卷积层对应的卷积算法运行时间,并对各所述卷积层的卷积参数组中的卷积参数进行归一化处理;根据与各所述卷积层对应的卷积算法运行时间,在各个预设卷积算法中确定与各所述卷积层对应的目标卷积算法;将各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间作为训练样本,对机器学习模型进行训练,得到卷积算法预测模型;其中,所述卷积算法预测模型的输入为卷积层的卷积参数组,输出为与卷积层对应的目标卷积算法的标识信息、与目标卷积算法对应的预测运行时间。
步骤202、对所述目标卷积层的卷积参数组进行归一化处理。
可选的,按照预设的归一化处理规则对各所述卷积层的卷积参数组中的卷积参数进行归一化处理。
步骤203、将归一化处理后的所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,得到所述卷积算法预测模型输出的与所述目标卷积层对应的目标卷积算法的标识信息、与所述目标卷积算法对应的预测运行时间。
步骤204、根据所述目标卷积算法的标识信息,确定与所述目标卷积算法对应的硬件加速器。
可选的,预先设置各个预设卷积算法的标识信息与各个预设卷积算法的硬件加速器之间的对应关系。预设卷积算法的硬件加速器是用于使用预设卷积算法,根据接收的卷积层的各项卷积参数对卷积层进行卷积加速运算的硬件加速器。根据各个预设卷积算法的标识信息与各个预设卷积算法的硬件加速器之间的对应关系、以及所述目标卷积算法的标识信息,确定与所述目标卷积算法对应的硬件加速器。
步骤205、将所述目标卷积层的各项卷积参数输入至所述硬件加速器,以使所述硬件加速器使用所述目标卷积算法,根据所述目标卷积层的各项卷积参数对所述目标卷积层进行卷积加速运算。
本发明实施例的技术方案,提供了一种卷积运算方法,通过预先训练的卷积算法预测模型,根据目标卷积层的卷积参数组,快速而准确地确定对目标卷积层进行卷积运算的运行时间最短的目标卷积算法,即与目标卷积层对应的可以达到最优的卷积运算加速效果的最优卷积算法,可以使用最优卷积算法以及与最优卷积算法对应的硬件加速器,对目标卷积层进行卷积加速运算。
实施例三
图3为本发明实施例三提供的一种卷积运算方法的流程图。本发明实施例可以与上述一个或者多个实施例中各个可选方案结合。如图3所示,本发明实施例的方法具体包括:
步骤301、在目标卷积层的运算过程中,获取所述目标卷积层的卷积参数组,所述卷积参数组中包括所述目标卷积层的至少一项卷积参数。
步骤302、对所述目标卷积层的卷积参数组进行归一化处理。
步骤303、将归一化处理后的所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,得到所述卷积算法预测模型输出的与所述目标卷积层对应的目标卷积算法的标识信息、与所述目标卷积算法对应的预测运行时间。
步骤304、判断所述目标卷积算法以及所述预测运行时间是否满足预设运算条件:若是,则执行步骤305;若否,则执行步骤307。
可选的,预设运算条件是用于检测通过预先训练的卷积算法预测模型确定出的所述目标卷积算法以及所述预测运行时间是否正常的条件。预设运算条件可以包括:各个预设卷积算法的标识信息中存在与所述目标卷积算法的标识信息一致的标识信息;所述预测运行时间小于预设的运行时间阈值。
可选的,判断所述目标卷积算法以及所述预测运行时间是否满足预设运算条件,包括:判断各个预设卷积算法的标识信息中是否存在与所述目标卷积算法的标识信息一致的标识信息;如果各个预设卷积算法的标识信息中不存在与所述目标卷积算法的标识信息一致的标识信息,则确定所述目标卷积算法以及所述预测运行时间不满足预设运算条件;如果各个预设卷积算法的标识信息中存在与所述目标卷积算法的标识信息一致的标识信息,则判断所述预测运行时间是否小于预设的运行时间阈值;如果所述预测运行时间小于预设的运行时间阈值,则确定所述目标卷积算法以及所述预测运行时间满足预设运算条件;如果所述预测运行时间大于等于预设的运行时间阈值,则确定所述目标卷积算法以及所述预测运行时间不满足预设运算条件。
步骤305、根据所述目标卷积算法的标识信息,确定与所述目标卷积算法对应的硬件加速器。
步骤306、将所述目标卷积层的各项卷积参数输入至所述硬件加速器,以使所述硬件加速器使用所述目标卷积算法,根据所述目标卷积层的各项卷积参数对所述目标卷积层进行卷积加速运算。
步骤307、根据预设的备选卷积算法,确定与所述预设的备选卷积算法对应的硬件加速器。
可选的,预设的备选卷积算法是在检测到通过预先训练的卷积算法预测模型确定出的所述目标卷积算法以及所述预测运行时间异常的情况下,使用的备选卷积算法。预先在各个预设卷积算法中指定一个预设卷积算法,作为备选卷积算法。
步骤308、将所述目标卷积层的各项卷积参数输入至所述硬件加速器,以使所述硬件加速器使用所述预设的备选卷积算法,根据所述目标卷积层的各项卷积参数对所述目标卷积层进行卷积加速运算。
本发明实施例的技术方案,提供了一种卷积运算方法,通过预先训练的卷积算法预测模型,根据目标卷积层的卷积参数组,快速而准确地确定对目标卷积层进行卷积运算的运行时间最短的目标卷积算法,即与目标卷积层对应的可以达到最优的卷积运算加速效果的最优卷积算法,可以通过预设运算条件,检测通过预先训练的卷积算法预测模型确定出的目标卷积算法以及预测运行时间是否正常,在目标卷积算法以及预测运行时间满足预设运算条件时,使用目标卷积算法以及与目标卷积算法对应的硬件加速器,对目标卷积层进行卷积加速运算,在目标卷积算法以及预测运行时间不满足预设运算条件时,使用备选卷积算法以及与备选卷积算法对应的硬件加速器对目标卷积层进行卷积运算,提高目标卷积层的卷积运算过程的安全性和准确性。
实施例四
图4为本发明实施例四提供的一种卷积运算装置的结构示意图。所述装置可以配置于计算机设备中,如图4所示,所述装置包括:参数组获取模块401、算法预测模块402以及卷积运算模块403。
其中,参数组获取模块401,用于在目标卷积层的运算过程中,获取所述目标卷积层的卷积参数组,所述卷积参数组中包括所述目标卷积层的至少一项卷积参数;算法预测模块402,用于将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间;其中,所述目标卷积算法是各个预设卷积算法中对所述目标卷积层进行卷积运算的运行时间最短的卷积算法,所述预测运行时间是预测的使用所述目标卷积算法对所述目标卷积层进行卷积运算的运行时间;卷积运算模块403,用于使用所述目标卷积算法对所述目标卷积层进行卷积运算。
本发明实施例的技术方案,提供了一种卷积运算装置,通过在目标卷积层的运算过程中,获取目标卷积层的卷积参数组,然后将目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与目标卷积层对应的目标卷积算法,确定与目标卷积算法对应的预测运行时间;最后使用目标卷积算法对所述目标卷积层进行卷积运算,可以在目标卷积层的运算过程中,通过预先训练的卷积算法预测模型,根据目标卷积层的卷积参数组,快速而准确地确定对目标卷积层进行卷积运算的运行时间最短的目标卷积算法,即与目标卷积层对应的可以达到最优的卷积运算加速效果的最优卷积算法,进而使用最优卷积算法对目标卷积层进行卷积运算。
在本发明实施例的一个可选实施方式中,可选的,卷积运算装置还包括:数据获取模块,用于获取设定数量的卷积层的卷积参数组、以及与各所述卷积层对应的卷积算法运行时间,并对各所述卷积层的卷积参数组中的卷积参数进行归一化处理;算法确定模块,用于根据与各所述卷积层对应的卷积算法运行时间,在各个预设卷积算法中确定与各所述卷积层对应的目标卷积算法;模型训练模块,用于将各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间作为训练样本,对机器学习模型进行训练,得到卷积算法预测模型;其中,所述卷积算法预测模型的输入为卷积层的卷积参数组,输出为与卷积层对应的目标卷积算法的标识信息、与目标卷积算法对应的预测运行时间。
在本发明实施例的一个可选实施方式中,可选的,模型训练模块具体用于:将由各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间构成的训练样本划分为训练样本集合以及测试样本集合;使用所述训练样本集合对机器学习模型进行训练,得到卷积算法预测模型;使用所述测试样本集合对所述卷积算法预测模型进行测试。
在本发明实施例的一个可选实施方式中,可选的,算法预测模块402具体用于:对所述目标卷积层的卷积参数组进行归一化处理;将归一化处理后的所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,得到所述卷积算法预测模型输出的与所述目标卷积层对应的目标卷积算法的标识信息、与所述目标卷积算法对应的预测运行时间。
在本发明实施例的一个可选实施方式中,可选的,卷积运算模块403具体用于:根据所述目标卷积算法的标识信息,确定与所述目标卷积算法对应的硬件加速器;将所述目标卷积层的各项卷积参数输入至所述硬件加速器,以使所述硬件加速器使用所述目标卷积算法,根据所述目标卷积层的各项卷积参数对所述目标卷积层进行卷积加速运算。
在本发明实施例的一个可选实施方式中,可选的,卷积运算装置还包括:条件判断模块,用于判断所述目标卷积算法以及所述预测运行时间是否满足预设运算条件;第一运算模块,用于在所述目标卷积算法以及所述预测运行时间满足预设运算条件时,使用所述目标卷积算法对所述目标卷积层进行卷积运算。
在本发明实施例的一个可选实施方式中,可选的,卷积运算装置还包括:第二运算模块,用于在所述目标卷积算法以及所述预测运行时间不满足预设运算条件时,使用预设的备选卷积算法对所述目标卷积层进行卷积运算。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
上述卷积运算装置可执行本发明任意实施例所提供的卷积运算方法,具备执行卷积运算方法相应的功能模块和有益效果。
实施例五
图5为本发明实施例五提供的一种计算机设备的结构示意图。图5示出了适用于来实现本发明实施方式的示例性计算机设备12的框图。图5显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器16,存储器28,连接不同业务系统组件(包括存储器28和处理器16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图5中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器16通过运行存储在存储器28中的程序,从而执行各种功能应用以及数据处理,实现本发明实施例所提供的卷积运算方法:在目标卷积层的运算过程中,获取所述目标卷积层的卷积参数组,所述卷积参数组中包括所述目标卷积层的至少一项卷积参数;将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间;其中,所述目标卷积算法是各个预设卷积算法中对所述目标卷积层进行卷积运算的运行时间最短的卷积算法,所述预测运行时间是预测的使用所述目标卷积算法对所述目标卷积层进行卷积运算的运行时间;使用所述目标卷积算法对所述目标卷积层进行卷积运算。
实施例六
本发明实施例六提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,实现本发明实施例所提供的卷积运算方法:在目标卷积层的运算过程中,获取所述目标卷积层的卷积参数组,所述卷积参数组中包括所述目标卷积层的至少一项卷积参数;将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间;其中,所述目标卷积算法是各个预设卷积算法中对所述目标卷积层进行卷积运算的运行时间最短的卷积算法,所述预测运行时间是预测的使用所述目标卷积算法对所述目标卷积层进行卷积运算的运行时间;使用所述目标卷积算法对所述目标卷积层进行卷积运算。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或计算机设备上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种卷积运算方法,其特征在于,包括:
在目标卷积层的运算过程中,获取所述目标卷积层的卷积参数组,所述卷积参数组中包括所述目标卷积层的至少一项卷积参数;
将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间;
其中,所述目标卷积算法是各个预设卷积算法中对所述目标卷积层进行卷积运算的运行时间最短的卷积算法,所述预测运行时间是预测的使用所述目标卷积算法对所述目标卷积层进行卷积运算的运行时间;
使用所述目标卷积算法对所述目标卷积层进行卷积运算。
2.根据权利要求1所述的方法,其特征在于,在获取所述目标卷积层的卷积参数组之前,还包括:
获取设定数量的卷积层的卷积参数组、以及与各所述卷积层对应的卷积算法运行时间,并对各所述卷积层的卷积参数组中的卷积参数进行归一化处理;
根据与各所述卷积层对应的卷积算法运行时间,在各个预设卷积算法中确定与各所述卷积层对应的目标卷积算法;
将各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间作为训练样本,对机器学习模型进行训练,得到卷积算法预测模型;
其中,所述卷积算法预测模型的输入为卷积层的卷积参数组,输出为与卷积层对应的目标卷积算法的标识信息、与目标卷积算法对应的预测运行时间。
3.根据权利要求2所述的方法,其特征在于,所述将各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间作为训练样本,对机器学习模型进行训练,得到卷积算法预测模型,包括:
将由各所述卷积层的归一化处理后的卷积参数组、与各所述卷积层对应的目标卷积算法的标识信息和运行时间构成的训练样本划分为训练样本集合以及测试样本集合;
使用所述训练样本集合对机器学习模型进行训练,得到卷积算法预测模型;
使用所述测试样本集合对所述卷积算法预测模型进行测试。
4.根据权利要求2所述的方法,其特征在于,所述将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间,包括:
对所述目标卷积层的卷积参数组进行归一化处理;
将归一化处理后的所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,得到所述卷积算法预测模型输出的与所述目标卷积层对应的目标卷积算法的标识信息、与所述目标卷积算法对应的预测运行时间。
5.根据权利要求4所述的方法,其特征在于,所述使用所述目标卷积算法对所述目标卷积层进行卷积运算,包括:
根据所述目标卷积算法的标识信息,确定与所述目标卷积算法对应的硬件加速器;
将所述目标卷积层的各项卷积参数输入至所述硬件加速器,以使所述硬件加速器使用所述目标卷积算法,根据所述目标卷积层的各项卷积参数对所述目标卷积层进行卷积加速运算。
6.根据权利要求1所述的方法,其特征在于,在确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间之后,还包括:
判断所述目标卷积算法以及所述预测运行时间是否满足预设运算条件;
在所述目标卷积算法以及所述预测运行时间满足预设运算条件时,使用所述目标卷积算法对所述目标卷积层进行卷积运算。
7.根据权利要求6所述的方法,其特征在于,在判断所述目标卷积算法以及所述预测运行时间是否满足预设运算条件之后,还包括:
在所述目标卷积算法以及所述预测运行时间不满足预设运算条件时,使用预设的备选卷积算法对所述目标卷积层进行卷积运算。
8.一种卷积运算装置,其特征在于,包括:
参数组获取模块,用于在目标卷积层的运算过程中,获取所述目标卷积层的卷积参数组,所述卷积参数组中包括所述目标卷积层的至少一项卷积参数;
算法预测模块,用于将所述目标卷积层的卷积参数组输入至预先训练的卷积算法预测模型,通过预先训练的卷积算法预测模型,在各个预设卷积算法中确定出与所述目标卷积层对应的目标卷积算法,确定与所述目标卷积算法对应的预测运行时间;
其中,所述目标卷积算法是各个预设卷积算法中对所述目标卷积层进行卷积运算的运行时间最短的卷积算法,所述预测运行时间是预测的使用所述目标卷积算法对所述目标卷积层进行卷积运算的运行时间;
卷积运算模块,用于使用所述目标卷积算法对所述目标卷积层进行卷积运算。
9.一种计算机设备,其特征在于,所述计算机设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的卷积运算方法。
10.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7中任一所述的卷积运算方法。
CN202110843608.0A 2021-07-26 2021-07-26 一种卷积运算方法、装置、设备及存储介质 Pending CN113554154A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110843608.0A CN113554154A (zh) 2021-07-26 2021-07-26 一种卷积运算方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110843608.0A CN113554154A (zh) 2021-07-26 2021-07-26 一种卷积运算方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN113554154A true CN113554154A (zh) 2021-10-26

Family

ID=78104400

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110843608.0A Pending CN113554154A (zh) 2021-07-26 2021-07-26 一种卷积运算方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113554154A (zh)

Similar Documents

Publication Publication Date Title
CN109614625B (zh) 标题正文相关度的确定方法、装置、设备及存储介质
CN109871315B (zh) 基于机器学习的系统升级失败的诊断方法及装置
CN109947924B (zh) 对话系统训练数据构建方法、装置、电子设备及存储介质
CN111612037A (zh) 异常用户检测方法、装置、介质及电子设备
CN111145076A (zh) 数据并行化处理方法、系统、设备及存储介质
CN111222981A (zh) 可信度确定方法、装置、设备和存储介质
CN111598122B (zh) 数据校验方法、装置、电子设备和存储介质
CN114238980B (zh) 一种工控设备漏洞挖掘方法、系统、设备及存储介质
CN111738290B (zh) 图像检测方法、模型构建和训练方法、装置、设备和介质
CN111625555B (zh) 一种订单匹配方法、装置、设备及存储介质
CN113936232A (zh) 一种碎屏识别方法、装置、设备和存储介质
CN113591998A (zh) 分类模型的训练和使用方法、装置、设备以及存储介质
CN110704614B (zh) 对应用中的用户群类型进行预测的信息处理方法及装置
CN112857746A (zh) 一种灯光检测仪的追踪方法、装置、电子设备及存储介质
CN110162729B (zh) 建立浏览器指纹以及识别浏览器类型的方法、装置
CN109669875B (zh) 应用崩溃测试方法、装置、电子设备及存储介质
CN111402034A (zh) 一种信用审核方法、装置、设备及存储介质
CN113554154A (zh) 一种卷积运算方法、装置、设备及存储介质
CN114116688B (zh) 数据处理与数据质检方法、装置及可读存储介质
CN116245630A (zh) 一种反欺诈检测方法、装置、电子设备及介质
CN114201729A (zh) 一种矩阵运算方式的选择方法、装置、设备以及存储介质
CN110059180B (zh) 文章作者身份识别及评估模型训练方法、装置及存储介质
CN110096447B (zh) 一种基于图像识别的软硬件自动化测试方法
CN112036516A (zh) 一种图像处理方法、装置、电子设备和存储介质
CN113553309A (zh) 一种日志模板的确定方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination