CN111160515A - 运行时间预测方法、模型搜索方法及系统 - Google Patents
运行时间预测方法、模型搜索方法及系统 Download PDFInfo
- Publication number
- CN111160515A CN111160515A CN201911251905.5A CN201911251905A CN111160515A CN 111160515 A CN111160515 A CN 111160515A CN 201911251905 A CN201911251905 A CN 201911251905A CN 111160515 A CN111160515 A CN 111160515A
- Authority
- CN
- China
- Prior art keywords
- network
- time
- model
- calculation
- running time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000004364 calculation method Methods 0.000 claims abstract description 76
- 230000005540 biological transmission Effects 0.000 claims abstract description 21
- 238000010586 diagram Methods 0.000 claims description 32
- 238000013528 artificial neural network Methods 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 23
- 238000011156 evaluation Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 12
- 238000012216 screening Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 abstract description 5
- 239000010410 layer Substances 0.000 description 39
- 238000005070 sampling Methods 0.000 description 30
- 230000004927 fusion Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 239000011229 interlayer Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种运行时间预测方法、模型搜索方法及系统,其中运行时间预测方法包括以下步骤:获取网络的结构信息、数据计算总量、数据传输总量以及计算平台的计算并行度和访存带宽;结合结构信息、数据计算总量、数据传输总量、计算并行度和访存带宽预测网络在计算平台上的运行时间;所述网络结构信息包括网络的层数信息和分支信息。本发明通过结合网络的参数和计算平台的参数,预测一个网络模型在硬件计算平台上运行一次推理运算的运行时间,为选出高准确度以及低延时的网络提供了基础,可广泛应用于网络优化技术领域。
Description
技术领域
本发明涉及网络优化技术领域,尤其涉及一种运行时间预测方法、模型搜索方法及系统。
背景技术
深度神经网络凭借在图像分类、人脸检测等任务的优异表现,已经成为人工智能中一种不可缺少的技术。其中,以堆叠式沙漏网络(Stacked Hourglass Network)为代表的深度模型在人体关键点检测任务中也获得不错的效果。相比于图像分类任务的神经网络,用于人体关键点检测的网络中常用堆叠式结构,而且结构中为准对称性结构,因此网络结构更为复杂,大大增加了网络结构的人工设计难度。因此含有准对称性网络结构的自动设计方法显得尤为重要。
神经结构搜索(Neural Architecture Search,NAS)是一种能够自动生成最优网络结构的优化方法。神经结构搜索的原理为在一个称为搜索空间的网络结构集合中,通过某种搜索策略找出满足一定约束或者性能要求的子网络结构。搜索空间包含网络中的层的类型和层与层之间的连接关系。现有的主流搜索策略有强化学习,遗传算法,和基于梯度的优化方法。
现有的神经网络结构搜索算法大多仍然只针对简单的图像分类任务,这些网络结构相对单一,网络结构中的分支较少,而且只存在特征尺度变小的路径而没有特征尺度变大的路径。但是在人体关键点检测任务的模型结构中常有准对称性结构。准对称性结构是指网络结构中同时存在特征提取的下采样路径和还原特征图的上采样路径,而且两条路径且上采样路径上的特征图需要和下采样路径上相同尺度的特征图进行融合。准对称性结构也存在于人体关键点检测任务中表现较好的堆叠式沙漏网络,但是该网络结构并没有被包含在上述的图像分类网络的搜索空间当中。因此使用用于图像分类任务的网络结构搜索方法并不能搜索出性能较好的用于人体关键点检测任务的神经网络结构。
再者,现有的网络结构搜索算法大部分只关注搜索模型的精度,搜索模型参数量的大小,如将网络参数的大小、训练时间和分布式训练时通信代价作为一种限定的代价作为一种惩罚反馈到控制网络搜索的循环神经网络当中。或者考虑到待搜索网络结构的硬件执行性能,将控制端每次搜索的网络结构转化成一个专用芯片上的配置信息,然后将该网络模型在芯片上真实运行,运行的时间反馈到控制端的网络结构搜索算法中。现也有一些方法以模型中不同算子的计算量大小对算子的运算时间进行简单的线性建模;比如将推论神经网络的硬件作为一个内部结构和运行数据流不可知的黑盒模块,但这样无法对模型在硬件上运行的细节进行准确建模,也没有深入地考虑如硬件的片上存储大小和片外存储带宽等对模型在硬件上的执行效率的影响。
名词解释:
准对称神经网络:为具有准对称性结构的神经网络,所述准对称性结构是指网络结构中同时存在特征提取的下采样路径和还原特征图的上采样路径,而且两条路径且上采样路径上的特征图需要和下采样路径上相同尺度的特征图进行融合。
发明内容
为了解决上述技术问题之一,本发明的目的是提供一种基于模型中时延参数的运行时间预测方法、模型搜索方法及系统。
本发明所采用的第一技术方案是:
一种运行时间预测方法,包括以下步骤:
获取网络的结构信息、数据计算总量、数据传输总量以及计算平台的计算并行度和访存带宽;
结合结构信息、数据计算总量、数据传输总量、计算并行度和访存带宽预测网络在计算平台上的运行时间;
所述网络结构信息包括网络的层数信息和分支信息。
进一步,所述分支信息包括分支网络和无分支网络,所述结合结构信息、数据计算总量、数据传输总量、计算并行度和访存带宽预测网络在计算平台上的运行时间这一步骤,具体包括以下步骤:
结合数据计算总量和计算并行度获取数据计算时间;
结合数据传输总量和访存带宽获取权值参数的访存时间;
根据网络结构信息获取输入特征图的访存时间和输出特征图的访存时间;
当网络结构信息为分支网络,结合数据计算时间、权值参数的访存时间、输入特征图的访存时间、输出特征图的访存时间和第一公式获取运行时间;
当网络结构信息为无分支网络,结合数据计算时间、权值参数的访存时间、输入特征图的访存时间、输出特征图的访存时间和第二公式获取运行时间。
进一步,所述第一公式为:
其中,所述LAT代表运行时间,所述代表网络中第i层的数据计算时间,所述代表权值参数的访存时间,所述代表输入特征图的访存时间,所述代表输出特征图的访存时间,所述IBRC和OBRC分别表示可选的输入输出路径的使用参数,所述λi的数值范围[0,1]。
进一步,所述第二公式为:
本发明所采用的第二技术方案是:
一种运行时间预测系统,包括:
信息获取模块,用于获取网络的结构信息、数据计算总量、数据传输总量以及计算平台的计算并行度和访存带宽;
时间预测模块,用于结合结构信息、数据计算总量、数据传输总量、计算并行度和访存带宽预测网络在计算平台上的运行时间;
所述网络结构信息包括网络的层数信息和分支信息。
本发明所采用的第三技术方案是:
一种模型搜索方法,包括以下步骤:
对准对称神经网络的算子搜索空间进行定义;
根据准对称神经网络的结构约束建立待搜索结构;
对待搜索结构进行训练,在搜索空间获得若干个模型;
采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构;
其中,所述预设方法为上所述的一种运行时间预测方法。
进一步,所述对准对称神经网络的算子搜索空间进行定义这一步骤,具体为:
对准对称神经网络的算子搜索空间进行定义,以获取待搜索结构中的算子种类;
其中,准对称性结构包括下采样计算路径和上采样计算路径,所述下采样计算路径下采样操作算子和普通操作算子,所述上采样计算路径包括上采样操作算子、特征融合算子和普通操作算子。
进一步,所述采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构这一步骤,具体包括以下步骤:
根据预设的评估精确度对模型进行筛选,获得若干个初始模型;
采用预设方法分别计算各初始模型的运行时间;
判断初始模型的运行时间是否小于预设的最大运行时间,若是,输出该初始模型的网络结构作为最终的模型结构。
进一步,所述采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构这一步骤,具体包括以下步骤:
采用预设方法计算模型的运行时间;
将运行时间与模型的损失函数进行结合;
将结合后的损失函数对模型继续训练后,获得并输出最终的模型结构。
进一步,所述采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构这一步骤,具体包括以下步骤:
根据预设的评估精确度对模型进行筛选,获得若干个初始模型;
采用预设方法分别计算各初始模型的运行时间;
结合运行时间和预设公式计算初始模型的评估得分,获取评估得分最高的若干初始模型作为最终的模型结构。
本发明所采用的第四技术方案是:
一种模型搜索系统,包括:
定义模块,用于对准对称神经网络的算子搜索空间进行定义;
约束模块,用于根据准对称神经网络的结构约束建立待搜索结构;
训练模块,用于对待搜索结构进行训练,在搜索空间获得若干个模型;
评估模块,用于采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构;
其中,所述预设方法为上所述的一种运行时间预测方法。
本发明的有益效果是:本发明通过结合网络的参数和计算平台的参数,预测一个网络模型在硬件计算平台上运行一次推理运算的运行时间,为选出高准确度以及低延时的网络提供了基础。
本发明的另一有益效果是:本发明通过结合运行时间,在搜索空间中搜索出高准确度以及低延时的网络,能够广泛地应用于深度网络模型中。
附图说明
图1是具体实施方式中一种运行时间预测方法的步骤流程图;
图2是硬件计算平台的结构示意图;
图3是三种不同的网络结构示意图;
图4是带分支的深度网络模型中的层结构;
图5是分支路径上无操作的一种带分支网络结构以及变换后的结构示意图;
图6是分支路径上有操作的一种带分支网络结构以及变换后的结构示意图;
图7是具体实施方式中一种模型搜索方法的步骤流程图;
图8是捷径深度可分离卷积模块示意图;
图9是深度可分离卷积模块示意图;
图10是准对称结构约束下的待搜索结构的示意图;
图11是具体实施方式中一种运行时间预测系统的结构框图;
图12是具体实施方式中一种模型搜索系统的结构框图。
具体实施方式
如图1所示,本实施例提供了一种运行时间预测方法,包括以下步骤:
S101、获取网络的结构信息、数据计算总量、数据传输总量以及计算平台的计算并行度和访存带宽;
S102、结合结构信息、数据计算总量、数据传输总量、计算并行度和访存带宽预测网络在计算平台上的运行时间;
所述网络结构信息包括网络的层数信息和分支信息。
具体地,所述分支信息包括分支网络和无分支网络,步骤S102包括步骤A1~A5:
A1、结合数据计算总量和计算并行度获取数据计算时间;
A2、结合数据传输总量和访存带宽获取权值参数的访存时间;
A3、根据网络结构信息获取输入特征图的访存时间和输出特征图的访存时间;
A4、当网络结构信息为分支网络,结合数据计算时间、权值参数的访存时间、输入特征图的访存时间、输出特征图的访存时间和第一公式获取运行时间;
A5、当网络结构信息为无分支网络,结合数据计算时间、权值参数的访存时间、输入特征图的访存时间、输出特征图的访存时间和第二公式获取运行时间。
如图2所示,一个模型的前馈硬件计算平台中包含计算单元,片上存储器和片外存储器。其中,计算单元的数目表示该硬件计算平台的计算并行度,用PE表示,片上存储器的大小用MEMon表示,片外存储器的大小用MEMoff表示。片外存储器接口上的带宽表示片上存储器和片外存储器数据交换的速度,用BW表示。
在以下提出的所有公式中,如无特别声明,一个带下标i的变量表示该变量在一个深度网络中第i层的值。假设片上存储器的容量远小于片外存储器的容量,而且不能将在其上面运行模型的所有权值参数W或者所有的中间产生的特征图F进行缓存。但是能够缓存任一层网络的权值数据Wi和任一层网络的输入特征图Fi。
MEMoff>W>MEMon>Wi#(1)
MEMoff>F>MEMon>Fi#(2)
在该硬件模型和上述的假设下,提出延时的计算公式如式(3)。
其中,LAT表示深度网络模型在硬件平台上运行一次推理运算所需的运行时间。总运行时间由两部分组成,有计算单元进行数据计算的时间LATOP和数据从片外存储器传输到片上存储器的时间,即访存时间LATMEM。参数λ反映了该硬件计算平台对访存延时隐藏量的多少,由硬件计算平台的架构设计决定,数值范围λ∈[0,1]。所谓访存延时隐藏量是指在硬件计算过程中,数据传输与计算模块同时进行,从而隐藏了在前后先行执行这两个过程的情况下系统给所花费的额外延时。在这种非理想情况下,λ=1,即表示硬件计算平台完全不能将访存延时隐藏在计算时间当中。访存时间包含权值参数的访存时间LATw,输入特征图的访存时间LATif和输出特征图的访存时间LATof三部分。
以下提出一种计算时间和访存时间的计算方法。第i层的计算时间主要由第i层卷积层的总体计算量OPi和计算平台的上的计算单元数目PE决定。如对于一个长、宽、通道数分别为iwi,ihi,ici的输入特征图和长、宽、通道数、个数分别为kwi,khi,ici,oci的卷积核进行卷积计算得到长、宽、通道数分别为owi,ohi,oci的输出特征图,那么计算时间可以用式(4)进行计算。访存时间中的每一项都可以由传输数据的总量AMT(Data)和硬件平台的访存带宽BW决定,以权值参数的访存时间为例,第i层的权值参数为长、宽、通道数、个数、数据宽度分别为kwi,khi,ici,oci,DW的卷积核,那么该层的权值参数访存时间可以用式(5)进行计算。
无分支的网络,即深度网络模型中每一层的输入特征图仅来自上一层的输出特征图,网络结构示意图如图3(a)所示。对于一个深度为N的无分支网络,上一层的输出结果可以直接作为下一层的输入数据,因此除了网络的第一层外的所有层都不需要从片外存储器传输输入特征图到片上存储器,即所以总体运行时间为:
有分支的网络,即深度网络模型中某一层的输入特征图不只是来自上一层的输出特征图,可能还有前若干层的输出特征图。网络结构示意图如图3(b)和(c)所示。当网络中某层出现分支的情况时,需要将特征图输出到片外存储器或从片外存储器输入到片上存储器。具体地,图4表示深度网络模型中一层,网络的每一层都有一组必要的输入输出路径I0/O0和一组可选的输入输出路径I1/O1。如果某一层使用了额外的输入/输出路径,由于硬件计算平台每次只能进行一层的计算操作,因此网络结构需要进行重新调整。参数IBRC和OBRC分别表示可选的输入输出路径的使用情况。如果第i层网络只使用I0输入路径,则IBRCi=0。如果第i层网络使用了I0,I1两个输入路径,而且分支路径上没有对特征图进行操作,则IBRCi=1,图5展示了分支路径上无操作的一种分支网络结构(a)以及经过顺序变化后的网络结构(b)。如果第i层网络使用了I0,I1两个输入路径,而且分支路径上有对特征图进行操作,则IBRCi=2,图6展示了分支路径上有操作的一种分支网络结构(a)以及经过顺序变化后的网络结构(b)。对于输出路径也是相同地对OBRC进行赋值。因此总体的运行时间为:
如图11所示,本实施例还提供了一种运行时间预测系统,包括:
信息获取模块,用于获取网络的结构信息、数据计算总量、数据传输总量以及计算平台的计算并行度和访存带宽;
时间预测模块,用于结合结构信息、数据计算总量、数据传输总量、计算并行度和访存带宽预测网络在计算平台上的运行时间;
所述网络结构信息包括网络的层数信息和分支信息。
本实施例的一种运行时间预测系统,可执行本发明方法实施例所提供的一种运行时间预测方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
参照图7,本实施例还提供了一种模型搜索方法,包括以下步骤:
对准对称神经网络的算子搜索空间进行定义;
根据准对称神经网络的结构约束建立待搜索结构;
对待搜索结构进行训练,在搜索空间获得若干个模型;
采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构;
其中,所述预设方法为上所述的一种运行时间预测方法。
本实施例方法的模型搜索过程中,首先针对准对称神经网络的算子定义搜索空间,然后根据准对称性结构约束构建立待搜索结构,完成搜索空间构建之后开始训练待搜索结构,等待搜索结构训练收敛后,对某个子网络结构进行精度评估和硬件运行时间预估,得到一个总体评估得分,获得在该计算通路下最为高效的准对称人工神经网络模型。
具体地,第一步:对准对称神经网络的算子搜索空间进行定义,即确定待搜索结构中的算子种类。
准对称性结构中存在下采样路径和上采样两种类型的计算路径。本专利定义,下采样路径包含下采样操作算子和普通操作算子,上采样路径中包含上采样操作算子、特征融合算子和普通操作算子。
下采样操作算子指的是能够将特征图的长和宽都变成比原来要小的操作,缩小比例典型值为1/2。操作包含但不限于步长为2的1×1卷积、3×3卷积、深度可分离卷积(MobileNetV1基础组成模块)、捷径深度可分离卷积模块(MobileNetV2基础构成模块)、空洞卷积、最大池化、平均池化等。
上采样操作算子指的是能够将特征图的长和宽都变大的操作,放大比例典型值为2,操作包含但不限于扩大,双线性插值,反卷积、步长小于1的空洞卷积等。
普通操作算子指的是不修改特征图分辨率的操作算子,操作包含但不限于相等,步长为1的1×1卷积、3×3卷积、5×5卷积,深度可分离卷积、捷径深度可分离卷积模块等。
特征融合算子将两个输入的特征图通过一定的操作合成一个特征图,操作包含但不限于相加、连接(Concatenate)、连接并通道混合(Channel Shuffle)等。
其中,上述的捷径深度可分离卷积模块包括:可设定通道扩展系数的升通道的逐点卷积(Pointwise Convolution)操作,批规范化,线性整流函数ReLU6;后面紧接可设定卷积核大小和步长的逐层卷积(Depthwise Convolution)操作,批规范化,线性整流函数ReLU6;最后连接逐点卷积(Pointwise Convolution)操作,批规范化。如逐层卷积操作的步长为1,则模块的输入和最后一层输出使用加法进行特征融合。层间结构关系如图8所示,其中,图8(a)为步长为1的结构,图8(b)为步长为2的结构。
深度可分离卷积包括:可设定卷积核大小和步长的逐层卷积(DepthwiseConvolution)操作,批规范化,线性整流函数ReLU,逐点卷积(Pointwise Convolution)操作,批规范化,线性整流函数ReLU。层间结构关系如图9所示。
第二步:根据准对称结构的约束构建待搜索结构。
准对称性结构中最为重要的一个特征是在下采样路径和上采样路径之间尺寸一致的特征图存在融合操作。以下约束即对该特征进行具体描述。
上述提到的上采样路径上的特征图融合操作,其中一个输入特征图来自上一层的输出特征图,另一个输入特征图来自上层下采样路径上尺寸一致(即长、宽和通道数都相等)的一个输出特征图。因此下采样路径上算子都需要有两个输出路径。
拥有两个输出路径的模块称为分支模块。回顾图4描述的带分支网络的层结构,下采样路径上的分支模块存在必要的输出路径O0和可选的输出路径O1,而上采样路径上的特征融合算子则存在必要的输入路径I0和可选的输入路径I1。下采样路径中的分支模块的可选输出路径O1到上采样路径中的特征融合模块的可选输入路径I1之间的连接称为分支路径。在准对称结构中,分支路径上允许存在至多一个普通操作操作算子,即保证特征图在分支路径上尺寸不变。关于准对称结构约束下的待搜索结构的示意图如图10所示。
第三步:对上述构建的待搜索结构进行训练。
训练的具体过程如下:在每次训练的迭代中,通过随机的方式和不同路径下的算子约束确定下采样路径、上采样路径和分支路径上的算子类型,从而得到一个模型结构。然后对该模型进行训练。如果在之前的某次迭代得到的模型与本次迭代的模型在某些层上使用了相同的算子,则可以在本次训练开始前将这些层初始化为这些算子的操作。这个步骤可以加快待搜索结构训练的收敛速度,提高训练的效率。在待搜索路径中各搜索路径上的模型的评估精度不再有过大的提升时,则认为待搜索结构的训练已经收敛,待搜索结构训练结束。
第四步:基于运行时间预测方法指导子网络的搜索过程,从而得到一个在该硬件计算平台下运行的高效子网络。本实施例具体提出三种使用模型运行时间指导网络搜索的方法。
方法一,设定一个最大的预期网络运行时间LATmax。在待搜索结构训练好之后,从中选择前N个(N>1)性能最优的网络结构,此处的性能优指的是该子网络能够满足目标任务的精度要求。然后根据运行时间计算公式对上述N个网络结构进行网络运行时间的预估,得到LAT1~LATN。如果该网络结构的预估运行时间比最大预期网络运行时间大,那么该网络结构应该被淘汰。剩余没有被淘汰的网络结构即在该硬件计算平台上高效运行的网络结构。
方法二,在待搜索结构的训练过程当中,当一个候选的网络结构被选择的时候,可以使用运行时间计算公式估算出候选网络结构在该计算平台上的运行时间,然后将运行时间以一定的方式结合到该网络结构的损失函数当中。一种损失函数于运行时间的结合方式如式(8)。
方法三,与方法一类似,在待搜索结构训练好之后,从中选择前N个(N>1)性能最优的网络结构,同样地,此处的性能优指的是该子网络能够满足目标任务的精度要求。然后通过运行时间计算公式对上述N个网络结构进行网络运行时间的预估,得到LAT1~LATN。结合子网络的评估精度以及其预估运行时间得到第n个子网络的评估得分Scoreeval,n如式(9)。
其中,参数p是约束系数,用于调节硬件效率对评估过程的影响程度。参数LATsuper是待搜索结构的一个运行时间,用于归一化子网络的运行时间。评估得分最高的M个(M≥1,M<N)网络结构即在该硬件计算平台上高效运行的网络结构。
综上所述,本实施例提出的方法可以为一个特定的硬件平台搜索出一个或者多个高准确度以及低延时的含分支结构或者准对称性结构的深度网络模型,所述深度网络模型包含但不限于能够实现人体关键点检测任务的深度网络模型。
如图12所示,本实施例还提供了一种模型搜索系统,包括:
定义模块,用于对准对称神经网络的算子搜索空间进行定义;
约束模块,用于根据准对称神经网络的结构约束建立待搜索结构;
训练模块,用于对待搜索结构进行训练,在搜索空间获得若干个模型;
评估模块,用于采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构;
其中,所述预设方法为上所述的一种运行时间预测方法。
本实施例的一种模型搜索系统,可执行本发明方法实施例所提供的一种模型搜索方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.一种运行时间预测方法,其特征在于,包括以下步骤:
获取网络的结构信息、数据计算总量、数据传输总量以及计算平台的计算并行度和访存带宽;
结合结构信息、数据计算总量、数据传输总量、计算并行度和访存带宽预测网络在计算平台上的运行时间;
所述网络结构信息包括网络的层数信息和分支信息。
2.根据权利要求1所述的一种运行时间预测方法,其特征在于,所述分支信息包括分支网络和无分支网络,所述结合结构信息、数据计算总量、数据传输总量、计算并行度和访存带宽预测网络在计算平台上的运行时间这一步骤,具体包括以下步骤:
结合数据计算总量和计算并行度获取数据计算时间;
结合数据传输总量和访存带宽获取权值参数的访存时间;
根据网络结构信息获取输入特征图的访存时间和输出特征图的访存时间;
当网络结构信息为分支网络,结合数据计算时间、权值参数的访存时间、输入特征图的访存时间、输出特征图的访存时间和第一公式获取运行时间;
当网络结构信息为无分支网络,结合数据计算时间、权值参数的访存时间、输入特征图的访存时间、输出特征图的访存时间和第二公式获取运行时间。
5.一种运行时间预测系统,其特征在于,包括:
信息获取模块,用于获取网络的结构信息、数据计算总量、数据传输总量以及计算平台的计算并行度和访存带宽;
时间预测模块,用于结合结构信息、数据计算总量、数据传输总量、计算并行度和访存带宽预测网络在计算平台上的运行时间;
所述网络结构信息包括网络的层数信息和分支信息。
6.一种模型搜索方法,其特征在于,包括以下步骤:
对准对称神经网络的算子搜索空间进行定义;
根据准对称神经网络的结构约束建立待搜索结构;
对待搜索结构进行训练,在搜索空间获得若干个模型;
采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构;
其中,所述预设方法为权利要求1-4任一项所述的一种运行时间预测方法。
7.根据权利要求6所述的一种模型搜索方法,其特征在于,所述采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构这一步骤,具体包括以下步骤:
根据预设的评估精确度对模型进行筛选,获得若干个初始模型;
采用预设方法分别计算各初始模型的运行时间;
判断初始模型的运行时间是否小于预设的最大运行时间,若是,输出该初始模型的网络结构作为最终的模型结构。
8.根据权利要求6所述的一种模型搜索方法,其特征在于,所述采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构这一步骤,具体包括以下步骤:
采用预设方法计算模型的运行时间;
将运行时间与模型的损失函数进行结合;
将结合后的损失函数对模型继续训练后,获得并输出最终的模型结构。
9.根据权利要求6所述的一种模型搜索方法,其特征在于,所述采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构这一步骤,具体包括以下步骤:
根据预设的评估精确度对模型进行筛选,获得若干个初始模型;
采用预设方法分别计算各初始模型的运行时间;
结合运行时间和预设公式计算初始模型的评估得分,获取评估得分最高的若干初始模型作为最终的模型结构。
10.一种模型搜索系统,其特征在于,包括:
定义模块,用于对准对称神经网络的算子搜索空间进行定义;
约束模块,用于根据准对称神经网络的结构约束建立待搜索结构;
训练模块,用于对待搜索结构进行训练,在搜索空间获得若干个模型;
评估模块,用于采用预设方法计算模型的在计算平台的运行时间,根据运行时时间获取并输出最终的模型结构;
其中,所述预设方法为权利要求1-4任一项所述的一种运行时间预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911251905.5A CN111160515B (zh) | 2019-12-09 | 2019-12-09 | 运行时间预测方法、模型搜索方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911251905.5A CN111160515B (zh) | 2019-12-09 | 2019-12-09 | 运行时间预测方法、模型搜索方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111160515A true CN111160515A (zh) | 2020-05-15 |
CN111160515B CN111160515B (zh) | 2023-03-21 |
Family
ID=70556583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911251905.5A Active CN111160515B (zh) | 2019-12-09 | 2019-12-09 | 运行时间预测方法、模型搜索方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111160515B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753973A (zh) * | 2020-06-22 | 2020-10-09 | 深圳鲲云信息科技有限公司 | 一种神经网络芯片的优化方法、系统、设备和存储介质 |
CN112560985A (zh) * | 2020-12-25 | 2021-03-26 | 北京百度网讯科技有限公司 | 神经网络的搜索方法、装置及电子设备 |
CN112926897A (zh) * | 2021-04-12 | 2021-06-08 | 平安科技(深圳)有限公司 | 基于联邦学习的客户端贡献计算方法和装置 |
CN114861871A (zh) * | 2022-04-11 | 2022-08-05 | 华南理工大学 | 一种卷积神经网络在加速器上的推理性能评估系统 |
CN116304720A (zh) * | 2023-05-18 | 2023-06-23 | 之江实验室 | 一种代价模型训练的方法、装置、存储介质及电子设备 |
JP7437277B2 (ja) | 2020-09-18 | 2024-02-22 | 株式会社東芝 | 情報処理装置及び情報処理システム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107391316A (zh) * | 2017-09-01 | 2017-11-24 | 中国科学院计算技术研究所 | 一种基于非易失存储的计算装置及其使用方法 |
CN109284820A (zh) * | 2018-10-26 | 2019-01-29 | 北京图森未来科技有限公司 | 一种深度神经网络的结构搜索方法及装置 |
-
2019
- 2019-12-09 CN CN201911251905.5A patent/CN111160515B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107391316A (zh) * | 2017-09-01 | 2017-11-24 | 中国科学院计算技术研究所 | 一种基于非易失存储的计算装置及其使用方法 |
CN109284820A (zh) * | 2018-10-26 | 2019-01-29 | 北京图森未来科技有限公司 | 一种深度神经网络的结构搜索方法及装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753973A (zh) * | 2020-06-22 | 2020-10-09 | 深圳鲲云信息科技有限公司 | 一种神经网络芯片的优化方法、系统、设备和存储介质 |
JP7437277B2 (ja) | 2020-09-18 | 2024-02-22 | 株式会社東芝 | 情報処理装置及び情報処理システム |
CN112560985A (zh) * | 2020-12-25 | 2021-03-26 | 北京百度网讯科技有限公司 | 神经网络的搜索方法、装置及电子设备 |
CN112560985B (zh) * | 2020-12-25 | 2024-01-12 | 北京百度网讯科技有限公司 | 神经网络的搜索方法、装置及电子设备 |
CN112926897A (zh) * | 2021-04-12 | 2021-06-08 | 平安科技(深圳)有限公司 | 基于联邦学习的客户端贡献计算方法和装置 |
CN114861871A (zh) * | 2022-04-11 | 2022-08-05 | 华南理工大学 | 一种卷积神经网络在加速器上的推理性能评估系统 |
CN114861871B (zh) * | 2022-04-11 | 2024-05-10 | 华南理工大学 | 一种卷积神经网络在加速器上的推理性能评估系统 |
CN116304720A (zh) * | 2023-05-18 | 2023-06-23 | 之江实验室 | 一种代价模型训练的方法、装置、存储介质及电子设备 |
CN116304720B (zh) * | 2023-05-18 | 2023-08-25 | 之江实验室 | 一种代价模型训练的方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111160515B (zh) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111160515B (zh) | 运行时间预测方法、模型搜索方法及系统 | |
CN111625361B (zh) | 一种基于云端服务器和IoT设备协同的联合学习框架 | |
JP7366274B2 (ja) | ニューラル・ネットワークのための適応的探索方法および装置 | |
CN109948029B (zh) | 基于神经网络自适应的深度哈希图像搜索方法 | |
KR102519467B1 (ko) | 데이터 전처리 방법, 장치, 컴퓨터 설비 및 저장 매체 | |
CN112163601B (zh) | 图像分类方法、系统、计算机设备及存储介质 | |
CN110309914A (zh) | 基于边缘服务器与移动端设备协同的深度学习模型推理加速方法 | |
CN114330699A (zh) | 神经网络结构搜索方法及装置 | |
CN114255361A (zh) | 神经网络模型的训练方法、图像处理方法及装置 | |
CN114896899B (zh) | 一种基于信息交互的多智能体分散式决策方法及系统 | |
CN114144794A (zh) | 电子装置及用于控制电子装置的方法 | |
CN110689183B (zh) | 一种集群光伏功率概率预测方法、系统、介质及电子设备 | |
CN114492723A (zh) | 神经网络模型的训练方法、图像处理方法及装置 | |
CN114004383A (zh) | 时间序列预测模型的训练方法、时间序列预测方法及装置 | |
CN111831354A (zh) | 数据精度配置方法、装置、芯片、芯片阵列、设备及介质 | |
CN113780542B (zh) | 一种面向fpga的多目标网络结构的构建方法 | |
CN112001491A (zh) | 针对处理器确定神经网络架构的搜索方法和装置 | |
CN115186806A (zh) | 一种支持跨节点自动微分的分布式图神经网络训练方法 | |
CN115221102B (zh) | 用于优化片上系统的卷积运算操作的方法和相关产品 | |
CN116416468B (zh) | 一种基于神经架构搜索的sar目标检测方法 | |
CN117058235A (zh) | 跨多种室内场景的视觉定位方法 | |
Printista et al. | A parallel implementation of Q-learning based on communication with cache | |
CN114626506A (zh) | 一种基于注意力机制的神经网络单元结构搜索方法及系统 | |
CN114139805A (zh) | 温度预测及模型训练方法和相关装置 | |
CN114626284A (zh) | 一种模型处理方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |