CN111401516B - 一种神经网络通道参数的搜索方法及相关设备 - Google Patents
一种神经网络通道参数的搜索方法及相关设备 Download PDFInfo
- Publication number
- CN111401516B CN111401516B CN202010109184.0A CN202010109184A CN111401516B CN 111401516 B CN111401516 B CN 111401516B CN 202010109184 A CN202010109184 A CN 202010109184A CN 111401516 B CN111401516 B CN 111401516B
- Authority
- CN
- China
- Prior art keywords
- neural network
- layer
- flops
- use efficiency
- channels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 520
- 238000000034 method Methods 0.000 title claims abstract description 123
- 238000012360 testing method Methods 0.000 claims abstract description 32
- 238000012549 training Methods 0.000 claims description 121
- 230000006870 function Effects 0.000 claims description 77
- 238000012795 verification Methods 0.000 claims description 56
- 230000015654 memory Effects 0.000 claims description 55
- 230000008569 process Effects 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 18
- 238000007667 floating Methods 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 11
- 230000003247 decreasing effect Effects 0.000 claims description 11
- 238000003672 processing method Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 13
- 238000004364 calculation method Methods 0.000 description 52
- 238000013527 convolutional neural network Methods 0.000 description 42
- 238000011176 pooling Methods 0.000 description 32
- 238000012545 processing Methods 0.000 description 31
- 239000011159 matrix material Substances 0.000 description 25
- 238000010586 diagram Methods 0.000 description 23
- 238000013461 design Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 8
- 230000007423 decrease Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000013138 pruning Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- MHABMANUFPZXEB-UHFFFAOYSA-N O-demethyl-aloesaponarin I Natural products O=C1C2=CC=CC(O)=C2C(=O)C2=C1C=C(O)C(C(O)=O)=C2C MHABMANUFPZXEB-UHFFFAOYSA-N 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000011022 operating instruction Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000251730 Chondrichthyes Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- OIGNJSKKLXVSLS-VWUMJDOOSA-N prednisolone Chemical compound O=C1C=C[C@]2(C)[C@H]3[C@@H](O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 OIGNJSKKLXVSLS-VWUMJDOOSA-N 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种神经网络通道参数的搜索方法及相关设备,首次提出一种基于算力(如FLOPs)的使用效率的神经网络通道参数搜索方法,其应用于人工智能领域,首先计算网络各层对算力的使用效率,然后增加算力的使用效率高的层的通道数,减少算力的使用效率低的层的通道数,该过程可迭代进行,最终获得对算力的使用效率非常高效的神经网络,缓解了目前神经网络通道参数搜索方法没有充分考虑到复杂度、使用效率低、搜索速度慢等问题。本申请还提出了一种计算神经网络各层对算力的使用效率的方法,该方法以一定比例随机丢弃部分通道并测试其对网络性能的影响,丢弃的通道对于不同测试样例是随机的,以此计算神经网络每层对算力的使用效率。
Description
技术领域
本申请涉及人工智能领域,尤其涉及一种神经网络通道参数的搜索方法及相关设备。
背景技术
近年来,随着深度学习的发展,神经网络被应用到各个领域,神经网络的网络结构对其性能有重要影响。因此,设计神经网络的网络结构的技术受到业界的广泛关注。该网络结构的设计最初是人为手工设计,人工手工设计耗时且性能也有待提高,因此网络结构搜索技术得到了长足发展。
网络结构搜索技术是一种优化网络结构的技术,其通过自动搜索的策略来设计网络结构,即网络结构搜索技术在定义的搜索空间内自动地寻找较好的网络结构。目前,基于网络结构搜索技术得到的网络结构的性能已经超过了人为设计的网络结构。其中,神经网络通道参数是一种可以搜索的网络结构参数。通过自动搜索的策略来设计神经网络通道参数的方法被称为神经网络通道参数搜索技术,通过神经网络通道参数搜索技术优化神经网络通道参数能够有效提升神经网络的性能。
目前普遍采用的网络通道数参数搜索技术是基于剪枝的神经网络通道参数搜索方法,该方法通过剪掉不重要的通道来获取更高效的神经网络通道参数。然而,该方法剪掉不重要的通道时只考虑是否重要,没考虑性价比。此外,剪枝是通过除去不重要通道得到神经网络通道参数,不是直接对通道数的搜索,因此会有偏差。
发明内容
本申请实施例提供了一种神经网络通道参数的搜索方法及相关设备,可用于人工智能领域中,该方法基于神经网络中任意一层对算力的使用效率调整训练后的神经网络的神经网络通道参数,实现神经网络的神经网络通道参数的搜索,从而在不提升神经网络复杂度的前提下提高神经网络的性能。
基于此,本申请实施例提供以下技术方案:
第一方面,本申请实施例首先提供一种神经网络通道参数的搜索方法,可用于人工智能领域中,该方法包括:首先,训练设备会获取数据集,该数据集就包括多个训练数据及多个验证验证数据。之后,训练设备会根据数据集中的多个训练数据对初始神经网络进行训练,训练的任务可以是分类、检测、分割等,之后就可以得到训练后的神经网络,训练设备得到训练好的神经网络之后,会进一步根据数据集中的多个验证数据确定训练后的神经网络中任意一层对算力的使用效率,该算力的使用效率为单位算力引起的网络性能改变量,最后,训练设备根据算力的使用效率调整训练后的神经网络的神经网络通道参数,从而得到第一神经网络。
在本申请上述实施例中,首次提出了一种基于算力的使用效率的神经网络通道参数搜索方法,该方法首先计算神经网络各层对算力的使用效率,并基于得到的神经网络各层对算力的使用效率调整训练后的神经网络的神经网络通道参数,从而得到第一神经网络。这样得到的第一神经网络就是调整过一次神经网络通道参数的神经网络,其比未经过神经网络通道参数调整的神经网络的性能是更好的。
在第一方面的一种可能实现方式中,为了得到性能更优的神经网络,还可以事先在训练设备中设置好迭代次数,并将得到的第一神经网络作为新的初始神经网络进行迭代,从而得到每次迭代后的第一神经网络,并通过多个测试数据(多个测试数据可以是数据集中的数据,也可以是任务目标的数据,具体此处不做限定)测试第一神经网络和每次迭代后的第一神经网络的性能,当迭代次数达到预设阈值(如,迭代次数达到预设的20次)时,则从第一神经网络及每轮迭代后的各个第一神经网络中确定出性能最优的第一神经网络为目标神经网络(如,具体操作可以是每次迭代获取到第一神经网络后就利用测试数据测试该第一神经网络的性能,并保存该性能以及该性能对应的神经网络通道参数),并输出该目标神经网络,该输出的目标神经网络就是上述所述的经过优化后的神经网络。
在本申请上述实施例中,将得到的第一神经网络又作为新的初始神经网络重新进行迭代训练、计算神经网络各层对算力的使用效率、调整神经网络通道参数等步骤,从而得到新的下一次迭代的第一神经网络,达到预设次数后,选择性能最好的一个第一神经网络作为最终输出的目标神经网络,通过多次迭代,最终输出的目标神经网络将是性能最优的。
在第一方面的一种可能实现方式中,根据数据集中的多个验证数据确定训练后的神经网络中任意一层对算力的使用效率可以是:首先,获取训练后的神经网络中任意一层的算力与该层通道数的函数(即对应关系),之后,根据该函数计算所述任意一层中的通道被丢弃的比例,即确定该按照多少比例丢弃该层的部分通道,并进一步根据计算得到的比例随机丢弃所述任意一层的部分通道,从而得到丢弃通道的第二神经网络,最后,确定该第二神经网络通过多个验证数据反应出的性能变化量为算力的使用效率。为便于理解,此处举例说明:假设输入的神经网络一共有4层(如,4个卷积层),第1层有40个通道,第2层有30个通道,第3层有70个通道,第4层有50个通道,根据函数计算得到的每层的通道被丢弃的比例分别为4%、8%、10%、20%,那么第1层中通道被随机丢弃的比例就为4%,第2层中通道被随机丢弃的比例就为8%,第3层中通道被随机丢弃的比例就为10%,第4层中通道被随机丢弃的比例就为20%,并且,每次丢弃只能随机丢弃一层的部分通道数,有四层的话,就需要根据验证数据逐层确定训练后的神经网络中四层中的每一层对算力的使用效率。
在本申请上述实施例中,具体阐述了如何确定算力的使用效率,即先获取函数,再计算神经网络每层对应的通道数的丢弃概率,之后分别以相应比例随机丢弃每层的部分通道并测试网络性能,由此确定算力的使用效率,具备灵活性。
在第一方面的一种可能实现方式中,根据函数计算神经网络任意一层中的通道被丢弃的比例具体可以是:首先,对上述获取到的函数求导,得到该函数的导数,之后,根据该导数确定神经网络的任意一层对算力降低预设值时需要丢弃的通道数,最后,确定需要丢弃的通道数与任意一层的通道数的比值为所述的比例。
在本申请上述实施例中,具体阐述了如何确定丢弃比例,即神经网络每层降低固定的算力时需要丢弃多少通道数,需要丢弃的通道数与总的通道数的比值就是丢弃比例,计算简单,易于实现。
在第一方面的一种可能实现方式中,该第二神经网络在该多个验证数据上的性能变化量可以是第二神经网络通过所述多个验证数据反应出的第一损失函数与未丢弃通道之前的神经网络通过所述多个验证数据反应出的第二损失函数的差值,也可以是多个验证数据通过第二神经网络上进行识别得到的识别结果的准确率与未丢弃通道之前的神经网络通过所述多个验证数据得到的识别结果的准确率的差值,具体此处对性能变化量不做限定,只要能衡量未丢弃通道前后的神经网络的性能差别的量都可称为所述的性能变化量。
在本申请上述实施方式中,阐述了性能变化量如何表征的几种方式,具有可选择性。
在第一方面的一种可能实现方式中,训练设备根据算力的使用效率调整训练后的神经网络的神经网络通道参数可以是:算力的使用效率大对应的层增加通道数、算力的使用效率小对应的层降低通道数。例如,可以是获取训练后的神经网络中每一层对算力的使用效率,之后增加较大的前m个算力的使用效率对应的层的通道数且降低较小的后n个算力的使用效率对应的层的通道数。其中,前m个为各层对应的算力的使用效率由高到低排序时的排在第m+1个序号之前的m个,后n个为各层对应的算力的使用效率由高到低排序时倒数第n-1个序号之后的n个,m可以与n相同,也可以不同,具体此处不做限定。
在本申请上述实施方式中,具体阐述了如何调整神经网络通道参数,即增加算力的使用效率高的层的通道数,减少算力的使用效率低的层的通道数,从而在不提升神经网络复杂度的前提下获得对算力的使用效率非常高效的神经网络。
在第一方面的一种可能实现方式中,训练设备根据算力的使用效率调整训练后的神经网络的神经网络通道参数具体可以是将较大的前m个算力的使用效率对应的层的通道数按第一预设比例(如,10%)增加且较小的后n个算力的使用效率对应的层的通道数按第二预设比例(如,5%)降低。其中,第一预设比例可以与第二预设比例相同,也可以不同,具体此处也不做限定。
在本申请上述实施方式中,具体阐述了如何增加算力的使用效率高的层的通道数,以及如何减少算力的使用效率低的层的通道数,具体可实现性。
在第一方面的一种可能实现方式中,算力的使用效率可以有多种具体的表现形式,例如,算力可以是浮点运算数(floating point operations,FLOPs),算力的使用效率相应地就是指FLOPs的使用效率(FLOPs utilization ratio,FUR),FUR是指神经网络对浮点运算数的使用效率,用于衡量网络在浮点运算复杂度上是否高效。
在本申请上述实施方式中,具体阐述了算力的使用效率可以是FLOPs的使用效率,具备可实现性。
在第一方面的一种可能实现方式中,本申请可以使用摄像头、红线感应等传感器获取到的数据作为数据集来搜索神经网络通道参数。
在第一方面的一种可能实现方式中,本申请所述的数据集还可以是多个图片数据,也可以是多个视频数据,此处不做限定。
在本申请上述实施方式中,具体阐述本申请所述的数据集可以是多种类型的数据,具备广泛适用性。
第二方面,本申请实施例提供了一种图像处理方法,可用于人工智能领域中,该方法包括:首先,执行设备获取目标图像,该目标图像可以是即将要被识别或定位的图片/视频帧等,之后,执行设备将通过输入的目标神经网络对该目标图像进行操作,该目标神经网络为根据网络中任意一层对算力的使用效率调整过神经网络通道参数的神经网络,经过神经网络的处理后,最后执行设备输出对该目标对象的识别结果,如,该识别结果可以是目标图像中目标物体的类别信息、位置信息等。
在本申请上述实施方式中,具体阐述了执行设备如何利用根据网络中任意一层对算力的使用效率调整过神经网络通道参数的神经网络对目标图像进行操作,该优化后的神经网络识别速度更快、识别效果更好。
第三方面,本申请实施例提供一种训练设备,该训练设备具有实现上述第一方面或第一方面任意一种可能实现方式的方法的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
第四方面,本申请实施例提供一种执行设备,该执行设备具有实现上述第二方面的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
第五方面,本申请实施例提供一种训练设备,可以包括存储器、处理器以及总线系统,其中,存储器用于存储程序,处理器用于调用该存储器中存储的程序以执行本申请实施例第一方面或第一方面任意一种可能实现方式的方法。
第六方面,本申请实施例提供一种执行设备,可以包括存储器、处理器以及总线系统,其中,存储器用于存储程序,处理器用于调用该存储器中存储的程序以执行本申请实施例第二方面的方法。
第七方面,本申请实施例提供了一种芯片系统,该芯片系统包括处理器,用于支持执行设备或训练设备实现上述方面中所涉及的功能,例如,发送或处理上述方法中所涉及的数据和/或信息。在一种可能的设计中,所述芯片系统还包括存储器,所述存储器,用于保存执行设备或训练设备必要的程序指令和数据。该芯片系统,可以由芯片构成,也可以包括芯片和其他分立器件。
第八方面,本申请提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机可以执行上述第一方面或第一方面任意一种可能实现方式的方法,或,使得计算机可以执行上述第二方面的方法。
第九方面,本申请实施例提供了一种计算机程序,当其在计算机上运行时,使得计算机执行上述第一方面或第一方面任意一种可能实现方式的方法,或,使得计算机执行上述第二方面的方法。
附图说明
图1为基于剪枝的神经网络通道参数搜索方法的一种示意图;
图2为本申请实施例提供的人工智能主体框架的一种结构示意图;
图3为本申请实施例提供的应用系统架构的一种示意图;
图4为本申请实施例提供的一种应用场景图;
图5为本申请实施例提供的另一应用场景图;
图6为卷积神经网络的一种结构示意图;
图7为卷积神经网络的另一结构示意图;
图8为本申请实施例提供的神经网络通道参数的搜索方法的一种示意图;
图9为本申请实施例提供的神经网络通道参数的搜索系统的一种示意图;
图10为本申请实施例提供的神经网络通道参数搜索的一种总体流程图;
图11为本申请实施例提供的系统架构的另一示意图;
图12为本申请实施例提供的图像处理方法的一种示意图;
图13为本申请实施例提供的训练设备的一种示意图;
图14为本申请实施例提供的执行设备的一种示意图;
图15为本申请实施例提供的训练设备的另一示意图;
图16为本申请实施例提供的执行设备的另一示意图;
图17为本申请实施例提供的芯片的一种结构示意图。
具体实施方式
本申请实施例提供了一种神经网络通道参数的搜索方法及相关设备,可用于人工智能领域中,该方法基于神经网络中任意一层对算力的使用效率来调整训练后的神经网络的神经网络通道参数,实现神经网络的神经网络通道参数的搜索,从而在不提升神经网络复杂度的前提下提高神经网络的性能,最终获得对算力的使用效率非常高效的神经网络。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,这仅仅是描述本申请的实施例中对相同属性的对象在描述时所采用的区分方式。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,以便包含一系列单元的过程、方法、系统、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它单元。
首先,本申请对利用剪枝的方法来搜索神经网络通道参数的技术进行简单介绍,请参阅图1,针对一个给定的神经网络的网络结构,首先通过一定方法将其训练为可以变换宽度的网络(即可变窄网络)。然后以相同的比例逐层地变换该网络的宽度,测试网络每一层的宽度对网络性能的影响(如图1中通过验证集内的数据来测试网络,从而决定变窄哪个层),并降低对性能影响小的层的通道数。该“测试影响-调节通道”的过程不断迭代,直到网络的复杂度达到设定的目标,如图1中表示的是“结构n”为最优的网络结构。此时的“结构n”的神经网络通道参数就是最终的搜索结果。
上述剪枝的方法在测试网络每一层宽度对性能的影响时,仅仅考虑网络性能变化的绝对值,而没有考虑性能变化相对于计算复杂度的相对值。该方法中,每一层变化宽度对网络计算复杂度的影响是不同的。有的层可能对性能影响很大,即性能变化的绝对值较大,但是其占用较多的计算复杂度,也就是说单位复杂度上性能变化较小。从计算高效的角度来说,搜索网络参数时应该考虑性能相对值,而上述方法只考虑了性能绝对值,因此只能搜索到次优的结果。此外,该方法需要首先将网络训练成可以变化宽度的网络。相对于传统的网络训练方法,该方法更加复杂且需要更多的训练时间。
基于此,为解决上述问题,本申请提出了一种新的神经网络通道参数搜索方法,该方法能够在准确地评估通道性价比的同时,高效地搜索神经网络通道参数。即本申请充分考虑了各层通道数相对于复杂度的相对性能,且本申请所提供的神经网络通道参数的搜索方法与传统的剪枝方法相比,更加简单、迅速。
下面结合附图,对本申请的实施例进行描述。本领域普通技术人员可知,随着技术的发展和新场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
首先,对本申请提到的神经网络通道参数进行介绍,神经网络通道参数是用于表征通道数的,而通道数是网络结构的一种,通道数可以看作是特征图(feature map)的个数,而特征图又是数据在神经网络上的中间表示,以卷积神经网络(Convosutionas NeurasNetwork,CNN)为例,特征图就是卷积的中间输出结果,在CNN中,每一层的通道数就等于该层的卷积核个数,因此有时也把通道数称为卷积核个数,一个卷积核就对应一个通道。例如,CNN各层输出的通道数一共有70个,那么神经网络通道参数就用于表征这70个通道数的相关信息(如,分别位于CNN哪一层、通道的属性信息等)。
接下来对人工智能系统总体工作流程进行描述,请参见图2,图2示出的为人工智能主体框架的一种结构示意图,下面从“智能信息链”(水平轴)和“IT价值链”(垂直轴)两个维度对上述人工智能主题框架进行阐述。其中,“智能信息链”反映从数据的获取到处理的一列过程。举例来说,可以是智能信息感知、智能信息表示与形成、智能推理、智能决策、智能执行与输出的一般过程。在这个过程中,数据经历了“数据—信息—知识—智慧”的凝练过程。“IT价值链”从人智能的底层基础设施、信息(提供和处理技术实现)到系统的产业生态过程,反映人工智能为信息技术产业带来的价值。
(1)基础设施
基础设施为人工智能系统提供计算能力支持,实现与外部世界的沟通,并通过基础平台实现支撑。通过传感器与外部沟通;计算能力由智能芯片(CPU、NPU、GPU、ASIC、FPGA等硬件加速芯片)提供;基础平台包括分布式计算框架及网络等相关的平台保障和支持,可以包括云存储和计算、互联互通网络等。举例来说,传感器和外部沟通获取数据,这些数据提供给基础平台提供的分布式计算系统中的智能芯片进行计算。
(2)数据
基础设施的上一层的数据用于表示人工智能领域的数据来源。数据涉及到图形、图像、语音、文本,还涉及到传统设备的物联网数据,包括已有系统的业务数据以及力、位移、液位、温度、湿度等感知数据。
(3)数据处理
数据处理通常包括数据训练,机器学习,深度学习,搜索,推理,决策等方式。
其中,机器学习和深度学习可以对数据进行符号化和形式化的智能信息建模、抽取、预处理、训练等。
推理是指在计算机或智能系统中,模拟人类的智能推理方式,依据推理控制策略,利用形式化的信息进行机器思维和求解问题的过程,典型的功能是搜索与匹配。
决策是指智能信息经过推理后进行决策的过程,通常提供分类、排序、预测等功能。
(4)通用能力
对数据经过上面提到的数据处理后,进一步基于数据处理的结果可以形成一些通用的能力,比如可以是算法或者一个通用系统,例如,翻译,文本的分析,计算机视觉的处理,语音识别,图像的识别等等。
(5)智能产品及行业应用
智能产品及行业应用指人工智能系统在各领域的产品和应用,是对人工智能整体解决方案的封装,将智能信息决策产品化、实现落地应用,其应用领域主要包括:智能终端、智能制造、智能交通、智能家居、智能医疗、智能安防、自动驾驶、平安城市等。
本申请可以应用在神经网络的网络结构自动化设计上,而通过本申请优化过神经网络通道参数的神经网络具体可以应用于人工智能领域的图像处理领域中,具体地,结合图2来讲,本申请实施例中基础设施获取的数据集中的数据可以是通过摄像头、雷达等传感器获取到的不同类型的多个数据,也可以是多个图像数据或多个视频数据,只要该数据集满足用于对神经网络进行迭代训练并能用于实现本申请的神经网络通道参数搜索功能即可,具体此处对数据集内的数据类型不限定。本申请的应用系统架构如图3所示,以获取到的数据集为物体图片数据为例:首先神经网络通道参数搜索系统102会接收到多个物体图片数据,其中,这多个物体图片数据包括多个训练数据和多个验证数据,在搜索空间搜索到的神经网络101会被输入至该神经网络通道参数搜索系统102内,由该神经网络通道参数搜索系统102根据训练数据对神经网络101进行训练得到训练后的神经网络(图3中未示出),之后,根据验证数据,由该神经网络通道参数搜索系统102基于训练后的神经网络中任意一层对算力的使用效率来调整训练后的神经网络的神经网络通道参数,从而得到最终输出的神经网络103。基于上述图3所提供的应用系统架构,本申请提供的方法可在预设的搜索空间对任一种神经网络的神经网络通道参数进行搜索,对于给定的视觉任务、数据集和神经网络,本申请能够优化神经网络的神经网络通道参数,在不提升神经网络计算复杂度的前提下提升网络性能。
由于智能安防、平安城市、智能终端等领域中都可以用到本申请实施例中的根据神经网络中任意一层对算力的使用效率调整过神经网络通道参数的神经网络来进行图像处理,下面将对多个落地到产品的多个应用场景进行介绍。
作为一种示例,本申请上述所述的神经网络通道参数搜索系统102可以应用在智能物体识别中,如图4所示,利用所提供的神经网络通道参数搜索系统可以优化神经网络结构,提升识别速度和识别准确率。对于给定的数据集(可以是多个图片数据,也可以是多个视频数据,此处不做限定,如图4中所示的是物体图片数据集)和神经网络结构,本申请可以根据数据集和任务目标(如,目标图片)来优化神经网络各层的通道数。这里数据集是各个物体和其对应的类别标签。任务目标就是对各个物体进行识别、分类。然后可以使用优化过的神经网络进行物体的识别。例如,当向优化后的神经网络输入如图4中所示的目标图片时,优化后的神经网络能够更快、更准确的识别出目标图像中的物体类别为“鲨鱼”,即优化后的神经网络识别速度更快、识别效果更好。
作为另一示例,本申请上述所述的神经网络通道参数搜索系统102还可以应用在自动驾驶车辆识别中,自动驾驶过程中需要通过传感器识别道路上的车辆、行人、交通标志等,这些任务都可以用神经网络来实现。如图5所示,利用所提供的神经网络通道参数搜索系统可以优化神经网络结构,从而达到优化神经网络识别效果的目的,具体如图5所示。本申请可以使用摄像头、红线感应等传感器获取到的数据作为数据集来搜索神经网络通道参数,从而提升神经网络的识别速度和能力,如在图5中,当获取到一张由车载摄像头拍摄到目标图片时,通过该优化后的神经网络,可以更快的识别出该目标图片中各个目标物体(如,其他车辆、行人等)的类别及所处位置。
此外,本申请上述所述的神经网络通道参数搜索系统102还可以应用于其他领域,如:智能终端、智能交通、智能医疗、智能安防、自动驾驶、平安城市等。只要能应用神经网络的领域就都可以通过本申请上述所述的神经网络通道参数搜索系统102得到优化后的神经网络,并将得到的该优化后的神经网络应用于上述各个领域,具体此处不再对其他应用场景进行一一列举。
需要说明的是,本申请所述的神经网络可以是任意形式的神经网络,可以是各种典型的深度神经网络,如CNN、循环神经网络(Recurrent Neural Networks,RNN)等,还可以是其他特殊的深度神经网络,如公路网络、残差网络等,只要该神经网络的网络参数包括有神经网络通道参数即可,具体此处对神经网络的类型不做限定。为便于阐述,在后续介绍本申请具体的实现方式时,涉及到数据的具体处理过程时则均以CNN为例进行示意。
为便于理解,这里首先对CNN做一些介绍,CNN是一种带有卷积结构的深度神经网络,是一种深度学习(deep learning)架构,深度学习架构是指通过机器学习的算法,在不同的抽象层级上进行多个层次的学习。作为一种深度学习架构,CNN是一种前馈(feed-forward)人工神经网络,该前馈人工神经网络中的各个神经元对输入其中的图像中的重叠区域做出响应。其中,卷积神经网络在逻辑上可以包括输入层、卷积层以及神经网络层,但由于输入层和输出层的作用主要是为了方便数据的导入和导出,随着卷积神经网络的不断发展,在实际应用中,输入层和输出层的概念逐渐被淡化,而是通过卷积层来实现输入层和输出层的功能,当然,卷积神经网络中还可以包括其他类型的层,具体此处不做限定。以图6为例,卷积神经网络100可以包括输入层110,卷积层/池化层120,其中池化层为可选的,以及神经网络层130。
卷积层/池化层120中的卷积层:
如图6所示卷积层/池化层120可以包括如示例121-126层,在一种实现中,121层为卷积层,122层为池化层,123层为卷积层,124层为池化层,125为卷积层,126为池化层;在另一种实现方式中,121、122为卷积层,123为池化层,124、125为卷积层,126为池化层。即卷积层的输出可以作为随后的池化层的输入,也可以作为另一个卷积层的输入以继续进行卷积操作。
以卷积层121为例,卷积层121可以包括很多个卷积算子,卷积算子也称为核或卷积核,在CNN中,每一层的通道数就等于该层的卷积核个数,因此有时也把通道数称为卷积核个数,一个卷积核就对应一个通道。卷积核在图像处理中的作用相当于一个从输入图像矩阵中提取特定信息的过滤器,卷积核本质上可以是一个权重矩阵,这个权重矩阵通常被预先定义,在对图像进行卷积操作的过程中,权重矩阵通常在输入图像上沿着水平方向一个像素接着一个像素(或两个像素接着两个像素……这取决于步长stride的取值)的进行处理,从而完成从图像中提取特定特征的工作。该权重矩阵的大小应该与图像的大小相关,需要注意的是,权重矩阵的纵深维度(depth dimension)和输入图像的纵深维度是相同的,在进行卷积运算的过程中,权重矩阵会延伸到输入图像的整个深度。因此,和一个单一的权重矩阵进行卷积会产生一个单一纵深维度的卷积化输出,但是大多数情况下不使用单一权重矩阵,而是应用维度相同的多个权重矩阵。每个权重矩阵的输出被堆叠起来形成卷积图像的纵深维度。不同的权重矩阵可以用来提取图像中不同的特征,例如一个权重矩阵用来提取图像边缘信息,另一个权重矩阵用来提取图像的特定颜色,又一个权重矩阵用来对图像中不需要的噪点进行模糊化……该多个权重矩阵维度相同,经过该多个维度相同的权重矩阵提取后的特征图维度也相同,再将提取到的多个维度相同的特征图合并形成卷积运算的输出。
这些权重矩阵中的权重值在实际应用中需要经过大量的训练得到,通过训练得到的权重值形成的各个权重矩阵可以从输入图像中提取信息,从而帮助卷积神经网络100进行正确的预测。
当卷积神经网络100有多个卷积层的时候,初始的卷积层(例如121)往往提取较多的一般特征,该一般特征也可以称之为低级别的特征;随着卷积神经网络100深度的加深,越往后的卷积层(例如126)提取到的特征越来越复杂,比如高级别的语义之类的特征,语义越高的特征越适用于待解决的问题。
卷积层/池化层120中的池化层:
由于常常需要减少训练参数的数量,因此卷积层之后常常需要周期性的引入池化层,即如图6中120所示例的121-126各层,可以是一层卷积层后面跟一层池化层,也可以是多层卷积层后面接一层或多层池化层。在图像处理过程中,池化层的唯一目的就是减少图像的空间大小。池化层可以包括平均池化算子和/或最大池化算子,以用于对输入图像进行采样得到较小尺寸的图像。平均池化算子可以在特定范围内对图像中的像素值进行计算产生平均值。最大池化算子可以在特定范围内取该范围内值最大的像素作为最大池化的结果。另外,就像卷积层中用权重矩阵的大小应该与图像大小相关一样,池化层中的运算符也应该与图像的大小相关。通过池化层处理后输出的图像尺寸可以小于输入池化层的图像的尺寸,池化层输出的图像中每个像素点表示输入池化层的图像的对应子区域的平均值或最大值。
神经网络层130:
在经过卷积层/池化层120的处理后,卷积神经网络100还不足以输出所需要的输出信息。因为如前所述,卷积层/池化层120只会提取特征,并减少输入图像带来的参数。然而为了生成最终的输出信息(所需要的类信息或别的相关信息),卷积神经网络100需要利用神经网络层130来生成一个或者一组所需要的类的数量的输出。因此,在神经网络层130中可以包括多层隐含层(如图6所示的131、132至13n)以及输出层140,该多层隐含层中所包含的参数可以根据具体的任务类型的相关训练数据进行预先训练得到,例如该任务类型可以包括图像识别,图像分类,图像超分辨率重建等等。
在神经网络层130中的多层隐含层之后,也就是整个卷积神经网络100的最后层为输出层140,该输出层140具有类似分类交叉熵的损失函数(loss),具体用于计算预测误差,一旦整个卷积神经网络100的前向传播(如图6由110至140的传播为前向传播)完成,反向传播(如图6由140至110的传播为反向传播)就会开始更新前面提到的各层的权重值以及偏差,以减少卷积神经网络100的损失及卷积神经网络100通过输出层输出的结果和理想结果之间的误差。
需要说明的是,如图6所示的卷积神经网络100仅作为一种CNN的示例,在具体的应用中,CNN还可以以其他网络模型的形式存在,例如,如图7所示的多个卷积层/池化层并行,将分别提取的特征均输入给全神经网络层130进行处理。又例如,由于输入层和输出层的概念逐渐被淡化,而是通过卷积层来实现输入层和输出层的功能,则在一些CNN中,可以只有卷积层,当然,CNN中还可以包括其他类型的层,具体此处不做限定。
这里还需要说明的是,在本申请实施例中,若神经网络为CNN,则神经网络的任意一层表示的是CNN的卷积层(其他各层则可以看作是通道数为零的层),若神经网络为RNN等其他类型的深度神经网络,则神经网络的任意一层表示的就是全连接层(类似的,其他类型的各层也可以看作是通道数为零的层)。
结合上述说明,本申请实施例提供了一种神经网络通道参数的搜索方法,请参阅图8,图8为本申请实施例提供的神经网络通道参数搜索方法的一种流程示意图,具体可以包括:
801、获取数据集。
首先,训练设备会获取数据集,该数据集就包括多个训练数据及多个验证验证数据。例如,可以是由图2中的基础设施获取到的数据集,具体可以是通过摄像头、雷达等传感器获取到的不同类型的多个数据,也可以是多个图像数据或多个视频数据,只要该数据集满足用于对神经网络进行迭代训练并能用于实现本申请的神经网络通道参数搜索功能即可,具体此处对数据集内的数据类型不限定。
802、根据多个训练数据对初始神经网络进行训练,得到训练后的神经网络。
之后,训练设备会根据数据集中的多个训练数据对初始的神经网络进行训练,训练的任务可以是分类、检测、分割等。之后就可以得到训练后的神经网络。例如,若初始的神经网络为CNN,则可以按照如图6所述的CNN的训练过程对其进行迭代训练,得到训练后的CNN。
803、根据多个验证数据确定训练后的神经网络中任意一层对算力的使用效率。
训练设备得到训练好的神经网络之后,会进一步根据数据集中的多个验证数据确定训练后的神经网络中任意一层对算力的使用效率,该算力(也可称为算力资源)的使用效率为单位算力引起的网络性能改变量。
具体地,在本申请的一些实施方式中,根据数据集中的多个验证数据确定训练后的神经网络中任意一层对算力的使用效率可以是:首先,获取训练后的神经网络中任意一层的算力与所述任意一层的通道数的函数(即对应关系),之后,根据该函数计算所述任意一层中的通道被丢弃的比例,并进一步根据计算得到的比例随机丢弃所述任意一层的至少一个通道,从而得到丢弃部分通道的第二神经网络,最后,确定该第二神经网络通过该多个验证数据反应出的性能变化量为算力的使用效率。为便于理解,此处举例说明:假设输入的神经网络一共有4层(如,4个卷积层),第1层有40个通道,第2层有30个通道,第3层有70个通道,第4层有50个通道,根据函数计算得到的每层的通道被丢弃的比例分别为4%、8%、10%、20%,那么第1层中通道被随机丢弃的比例就为4%,第2层中通道被随机丢弃的比例就为8%,第3层中通道被随机丢弃的比例就为10%,第4层中通道被随机丢弃的比例就为20%,并且,每次丢弃只能随机丢弃一层的部分通道数,有四层的话,就需要根据多个验证数据确定训练后的神经网络中四层中的每一层对算力的使用效率。
需要说明的是,在本申请的一些实施方式中,该第二神经网络通过该多个验证数据反应出的性能变化量可以是第二神经网络通过多个验证数据反应出的第一损失函数与未丢弃通道之前的神经网络通过多个验证数据反应出的第二损失函数的差值,也可以是多个验证数据通过第二神经网络上进行识别得到的识别结果的准确率与未丢弃通道之前的神经网络通过所述多个验证数据得到的识别结果的准确率的差值,具体此处对性能变化量不做限定,只要能衡量未丢弃通道前后的神经网络的性能差别的量都可称为所述的性能变化量。
还需要说明的是,在本申请的一些实施方式中,根据函数计算神经网络任意一层中的通道被丢弃的比例具体可以是:首先,对上述获取到的函数求导,得到该函数的导数,之后,根据该导数确定神经网络的任意一层对算力降低预设值时需要丢弃的通道数,最后,确定需要丢弃的通道数与任意一层的通道数的比值为所述的比例。
804、根据算力的使用效率调整训练后的神经网络的神经网络通道参数,得到第一神经网络。
最后,训练设备根据算力的使用效率调整训练后的神经网络的神经网络通道参数,从而得到第一神经网络。这样得到的第一神经网络就是调整过一次神经网络通道参数的神经网络,其比未经过神经网络通道参数调整的神经网络的性能是更好的。
需要说明的是,在本申请的一些实施方式中,训练设备根据算力的使用效率调整训练后的神经网络的神经网络通道参数可以是:算力的使用效率大对应的层增加通道数、算力的使用效率小对应的层降低通道数。例如,可以是获取训练后的神经网络中每一层对算力的使用效率,之后增加较大的前m个算力的使用效率对应的层的通道数且降低较小的后n个算力的使用效率对应的层的通道数。具体地,可以是将较大的前m个算力的使用效率对应的层的通道数按第一预设比例(如,10%)增加且较小的后n个算力的使用效率对应的层的通道数按第二预设比例(如,5%)降低。其中,前m个为各层对应的算力的使用效率由高到低排序时的排在第m+1个序号之前的m个,后n个为各层对应的算力的使用效率由高到低排序时倒数第n-1个序号之后的n个,m可以与n相同,也可以不同,此处不做限定;另外,第一预设比例可以与第二预设比例相同,也可以不同,此处也不做限定。
还需要说明的是,在本申请的一些实施方式中,为了得到性能更优的神经网络,还可以事先在训练设备中设置好迭代次数(如,20次),并将上述图8所述实施例得到的第一神经网络作为初始的神经网络进行迭代,从而得到每次迭代后的第一神经网络,并通过多个测试数据(多个测试数据也可以是数据集中的数据,也可以是任务目标的数据,具体此处不做限定)测试第一神经网络和每次迭代后的第一神经网络的性能,当迭代次数达到预设阈值(如,迭代次数达到预设的20次)时,则从第一神经网络及每轮迭代后的各个第一神经网络中确定出性能最优的第一神经网络为目标神经网络(如,具体操作可以是每次迭代获取到第一神经网络后就利用测试数据测试该第一神经网络的性能,并保存该性能以及该性能对应的神经网络通道参数),并输出该目标神经网络,该输出的目标神经网络就是上述所述的经过优化后的神经网络。
在本申请上述实施例中,首次提出一种基于算力的使用效率的神经网络通道参数搜索方法,该方法首先计算神经网络各层对算力的使用效率,然后增加算力的使用效率高的层的通道数,减少算力的使用效率低的层的通道数,该过程可迭代进行,最终会获得对算力的使用非常高效的神经网络,从而解决目前的神经网络通道参数搜索方法没有充分考虑到复杂度、使用效率低且搜索速度慢的问题。此外,本申请还提出一种计算神经网络每一层对算力的使用效率的方法,该方法以一定比例随机丢弃部分通道并测试其对网络性能的影响,丢弃的通道对不同的测试样例是随机的,以此计算神经网络每层对算力的使用效率。
在本申请的一些实施方式中,算力的使用效率可以有多种具体的表现形式,例如,算力可以是FLOPs,算力的使用效率相应地就是指FLOPs的使用效率,即FUR,FUR是指神经网络对浮点运算数的使用效率,用于衡量神经网络在浮点运算复杂度上是否高效。
为便于理解,下面以算力的使用效率为FUR为例,对本申请上述图3-5对应的实施例提到的神经网络通道参数搜索系统进行说明,请参阅图9,图9为本申请实施例提供的一种神经网络通道参数搜索系统的结构示意图,该神经网络通道参数搜索系统900是一种基于FUR的神经网络通道参数的搜索框架,具体可以包括但不限于:网络训练模块901、FUR计算模块902和通道更新模块903,其中,网络训练模块901用于使用获取到的数据集内的训练数据对初始神经网络进行迭代训练,以得到训练后的神经网络;FUR计算模块902用于计算训练后的神经网络各层的FUR,是本申请实施例的核心部分;通道更新模块903用于根据计算得到的FUR调整神经网络的神经网络通道参数,即更新神经网络各层的通道数。输入的神经网络会不断地经过这三个模块,直到达到了设定好的迭代次数,这些迭代次数中性能最好的神经网络会作为最终输出的神经网络(即上述实施例中的目标神经网络),其总体流程如图10所示,其中,预先给定的数据集(图10中未标示出)会被分为训练集、验证集和测试集(在一些实施例中,测试集也可以是其他数据集的数据,此处不做限定)。训练集中包括有多个训练数据,其被用于训练输入的神经网络的网络结构,验证集被用于计算训练后的神经网络各层的FUR,测试集则被用于测试每次迭代后输出的神经网络的网络性能。在每一论迭代中,对于输入的任意一个神经网络,图9所示的网络训练模块901首先使用训练集对神经网络进行训练,训练的任务可以是分类、检测、分割等。然后,FUR计算模块902会评估神经网络各层的FUR,评估时使用的数据是验证集上的多个验证数据。然后,通道更新模块903根据得到的每层的FUR来更新通道数,具体的更新策略为FUR高的层会增加通道数,FUR低的层会降低通道数。经过更新后,就能得到新的神经网络的网络结构,该新的网络结构会被送回网络训练模块901重新开始训练(因为神经网络通道参数并不是独立存在的,与网络结构中的其他网络参数存在关联关系,因此丢掉部分通道数会改变网络结构,极端情况下会导致已经训练好的网络不可用,因此需要重新训练),再次进行FUR计算和通道数更新,这个过程会重复很多轮,直到搜索到的神经网络的网络结构足够好或者达到了预设的迭代次数。此时,整个过程中性能最好的神经网络的网络结构就是该方法的搜索结果。其中,挑选性能最好的神经网络的网络结构的方法是比较在搜索过程中验证集上的网络性能。
需要说明的是,在FUR计算模块902评估FUR时,本申请实施例首先会建模神经网络每层通道数对FLOPs的影响,即获取神经网络每层对FLOPs与该层通道数的函数。由于通道数是离散的,本申请使用该函数来模拟连续的通道数对FLOPs的影响。然后,对于训练好的神经网络,通过FLOPs函数计算每层FLOPs对应的通道数,接下来,计算神经网络的每层对FLOPs都降低预设值ΔF时需要丢弃的通道数,并确定需要丢弃的通道数与各层输出的通道数的比值为丢弃比例,最后神经网络的各层分别以对应的丢弃比例随机丢弃对应层的部分通道并观测通道数变化后网络在验证集上的性能变化,得到的性能变化量就是要求的FUR(每次丢弃都只能丢弃一层,下次丢弃再丢其他层或该层的其他通道数,即迭代丢弃)。需要注意的是,丢弃的通道对于不同的测试样例是随机的,以此计算神经网络每层对FLOPs的使用效率。
下面以一个具体的实施例对上述图9中各个模块的功能进行更具体的说明:
首先,网络训练模块901对输入的神经网络的网络模型进行训练,例如,通过数据集ImageNet(一个公开的图片识别数据集)进行训练,本申请可事先设置一些搜索参数,如,只训练10个轮次(epochs),即迭代次数的预设阈值为10,1个epoch表示过了1遍训练集中的所有样本,学习率为0.1,训练中每簇的图片数(batch size)为256,batch size表示1次迭代所使用的样本量,每次迭代更新1次网络结构的神经网络通道参数。学习率使用的是余弦(cosine)下降方式。
之后,FUR计算模块902首先计算网络各层通道数与FLOPs的关系,本例采用没有支路的神经网络(有支路的神经网络也是采用类似的方式,可类推,此处不予赘述)。对于神经网络中的某一层,FLOPs与对应层的通道数的函数关系为:
其中,cl是神经网络第l层输出的通道数,M是与cl无关的FLOPs,若初始神经网络为CNN,则kl是卷积核大小;若初始神经网络为其他具有全连接层的神经网络,则kl=1,hl和wl是特征图的宽度和高度。
得到FLOPs与对应层的通道数的函数关系后,就可以进一步计算FLOPs对cl的导数:
该导数代表了神经网络各层通道数在FLOPs上的敏感性。即当从每个层降低ΔF个FLOPs时,需要扔掉的通道数为:
这里通道数cl通常为小数,以此可以得到每层需要丢弃的通道数的比例为该比例即为上述所述的丢弃比例。
分别以该比例随机丢弃神经网络各层的通道数,并统计相应的FLOPs变化,从而可以估计各层的FUR为:
FURl=Lval(c,SpatialDropout(W*,pl,l))-Lval(c,W*)
其中,Lval代表验证集上的损失函数(loss)。
最后,通道更新模块903可以根据神经网络每层的FUR更新对应层的通道数。具体为首先将各层的FUR进行排序,然后选取较大的前k个和最小的k个FUR,将最大的k个FUR对应层的通道数增加,较小的k个FUR对应层的通道数降低。增加或降低的幅度是可以调节的超参数。其中,k会随着搜索过程逐渐降低。
需要说明的是,在本申请的一些实施方式中,神经网络通道参数搜索系统900还可以包括更多或更少的模块,只要能用于实现上述各个实施例所述的网络通道搜索方法即可,具体此处对神经网络通道参数搜索系统900的功能模块的划分方式不做限定。
本申请实施例的目的是提供一种神经网络通道参数的搜索方法,以搜索到更高效的神经网络通道参数。为了对本申请带来的有益效果有进一步地理解,以下结合实验数据对本方案的有益效果做进一步展示,如表1所示,本申请在不提升网络FLOPs情况下,明显地提升了网络在CIFAR-100(一个公开的图片识别数据集)上的性能。
表1:本申请的搜索方法在公开数据集上搜索到的网络结构的性能与原网络对比
在本申请上述实施方式中,提出一种基于FLOPs的使用效率的神经网络通道参数的搜索系统,该系统的特点是搜索过程中根据神经网络各层对FLOPs的使用效率来搜索神经网络通道参数(即在搜索过程中通过计算神经网络每层对FLOPs的使用效率,迭代地调整神经网络的神经网络通道参数),同时本申请上述实施例还提出一种计算FLOPs的使用效率的方法,该方法在神经网络每一层以一定比例丢弃通道并测试其对性能的影响,以此计算神经网络各层对FLOPs的使用效率。
需要说明的是,上述实施例所述的神经网络通道参数的搜索方法可以是均在云侧实现,例如,可以由云侧的训练设备(该训练设备可由一个或多个服务器实现)获取数据集,并根据数据集内的多个训练数据对初始神经网络进行训练,得到训练后的神经网络,之后根据数据集内的多个验证数据确定训练后的神经网络中任意一层对算力的使用效率,最后根据算力的使用效率调整训练后的神经网络的神经网络通道参数,得到第一神经网络,之后再将得到的第一神经网络作为新的初始神经网络进行迭代;上述实施例所述的神经网络通道参数的搜索方法也可以是均在终端侧实现,例如,可以由终端设备(如个人计算机、计算机工作站、智能手机、平板电脑、智能汽车、媒体消费设备、可穿戴设备等)获取数据集,并根据数据集内的多个训练数据对初始神经网络进行训练,得到训练后的神经网络,之后根据数据集内的多个验证数据确定训练后的神经网络中任意一层对算力的使用效率,最后根据算力的使用效率调整训练后的神经网络的神经网络通道参数,得到第一神经网络,之后再将得到的第一神经网络作为新的初始神经网络进行迭代;上述实施例所述的神经网络通道参数的搜索方法还可以是一部分步骤在云侧实现、另一部分步骤在终端侧实现,例如,可以由云侧的训练设备(该训练设备可由一个或多个服务器实现)执行获取数据集,并根据数据集内的多个训练数据对初始神经网络进行训练,得到训练后的神经网络,而训练后的神经网络则输入终端设备,由终端设备根据数据集内的多个验证数据确定训练后的神经网络中任意一层对算力的使用效率,最后根据算力的使用效率调整训练后的神经网络的神经网络通道参数,得到第一神经网络,之后终端设备再将得到的第一神经网络发送给云侧的训练设备,云侧的训练设备再将收到的第一神经网络作为新的初始神经网络进行迭代。
为便于理解,以本申请实施例所述的神经网络通道参数的搜索方法均在云侧实现为例,对本申请的一个系统架构进行说明,请参阅图11,本申请实施例提供了一种系统架构1100。训练设备210由一个或多个服务器实现,可选的,与其它计算设备配合,例如:数据存储、路由器、负载均衡器等设备;训练设备210可以布置在一个物理站点上,或者分布在多个物理站点上。训练设备210可以使用数据存储系统250中的数据集(如上述各实施例所述的物体图片数据集),或者调用数据存储系统250中的程序代码实现对初始神经网络进行训练的功能,从而得到训练后的神经网络,之后,还可以进一步使用数据存储系统250中的数据集或者调用数据存储系统250中的程序代码确定训练后的神经网络中任意一层对算力的使用效率(如,对FLOPs的使用效率),最后根据算力的使用效率调整训练后的神经网络的神经网络通道参数,得到第一神经网络。为了得到性能更优的神经网络,还可以事先在训练设备210中设置好迭代次数(如,30次),并将上述得到的第一神经网络作为新的初始神经网络进行迭代,从而得到每次迭代后的第一神经网络,并通过多个测试数据(多个测试数据也可以是数据集中的数据,也可以是任务目标的数据,具体此处不做限定)测试第一神经网络和每次迭代后的第一神经网络的性能,当迭代次数达到预设阈值(如,迭代次数达到预设的30次)时,则从第一神经网络及每轮迭代后的各个第一神经网络中确定出性能最优的第一神经网络为目标神经网络(如,具体操作可以是每次迭代获取到第一神经网络后就利用测试数据测试该第一神经网络的性能,并保存该性能以及该性能对应的神经网络通道参数),并输出该目标神经网络,该输出的目标神经网络就是优化后的神经网络。具体地,该训练设备210可以包括上述图3-5以及图9中的神经网络通道参数搜索系统及该系统中的各个功能模块所具备功能,具体请参阅上述图3-5以及图9对应的实施例,此处不予赘述。
用户可以操作各自的用户设备(例如本地设备301和本地设备302)与训练设备210进行交互。每个本地设备可以表示任何计算设备,例如个人计算机、计算机工作站、智能手机、平板电脑、智能摄像头、智能汽车或其他类型蜂窝电话、媒体消费设备、可穿戴设备、机顶盒、游戏机等。
每个用户的本地设备可以通过任何通信机制/通信标准的通信网络与训练设备210进行交互,通信网络可以是广域网、局域网、点对点连接等方式,或它们的任意组合。
在另一种实现中,训练设备210的一个方面或多个方面可以由每个本地设备实现,例如,本地设备301可以获取训练设备训练好的神经网络,并根据验证数据确定训练后的神经网络中任意一层对算力的使用效率,最后根据算力的使用效率调整训练后的神经网络的神经网络通道参数,得到第一神经网络,之后本地设备301再将得到的第一神经网络发送给训练设备210,训练设备210再将收到的第一神经网络作为初始神经网络进行迭代。
需要注意的,训练设备210的所有功能也可以由本地设备实现。例如,本地设备301实现训练设备210的的功能并为自己的用户提供服务,或者为本地设备302的用户提供服务。
由于智能安防、平安城市、智能终端等领域中都可以用到本申请上述各实施例中的根据神经网络中任意一层对算力的使用效率调整过神经网络通道参数的神经网络来进行图像处理,如,即可以应用在如图4所述的智能物体识别中,也可以应用在如图5所述的自动驾驶车辆识别中,还可以应用于其他如智能终端、智能交通、智能医疗、智能安防、平安城市等领域。只要能应用神经网络的领域就都可以应用本申请上述各实施例所提供的根据神经网络中任意一层对算力的使用效率调整过神经网络通道参数的神经网络,基于此,本申请实施例还提供一种图像处理方法,如图12所示,该图像处理方法具体可以包括:
1201、获取目标图像。
首先,执行设备获取目标图像,该目标图像可以是即将要被识别或定位的图片/视频帧等。
1202、通过目标神经网络对目标图像进行操作,该目标神经网络为根据网络中任意一层对算力的使用效率调整过神经网络通道参数的神经网络。
之后,执行设备将通过目标神经网络对该目标图像进行操作,该目标神经网络为根据网络中任意一层对算力的使用效率调整过神经网络通道参数的神经网络。具体地,如何根据网络中任意一层对算力的使用效率调整神经网络通道参数可以参阅上述图3-5、图8-11对应的实施例所述的神经网络通道参数搜索方法或神经网络通道参数搜索系统所执行的步骤,此处不予赘述。此外,通过前述描述可知,本申请上述图3-5、图8-11对应的实施例中对神经网络仅是在训练阶段优化了神经网络通道参数,对优化后的神经网络的应用阶段并未做出改进,因此,以目标神经网络为CNN为例,执行设备通过CNN对该目标图像进行操作具体可以如图6所示,该目标图像作为输入,分别经由CNN的输入层110、卷积层/池化层120、神经网络层130的进行对应处理,具体的处理过程请参阅图6,此处不予赘述。
1203、输出对目标图像的识别结果。
经过神经网络的处理后,最后执行设备输出对该目标对象的识别结果,如,该识别结果可以是目标图像中目标物体的类别信息、位置信息等。
在图3至图11所对应的实施例的基础上,为了更好的实施本申请实施例的上述方案,下面还提供用于实施上述方案的相关设备。具体参阅图13,图13为本申请实施例提供的训练设备的一种结构示意图,训练设备1300包括:获取模块1301、训练模块1302、确定模块1303、调整模块1304,其中,获取模块1301,用于获取数据集,所述数据集包括多个训练数据及多个验证数据;训练模块1302,用于根据所述多个训练数据对初始神经网络进行训练,得到训练后的神经网络;确定模块1303,用于根据所述多个验证数据确定所述训练后的神经网络中任意一层对算力的使用效率,所述算力的使用效率为单位算力引起的网络性能改变量;调整模块1304,用于根据所述算力的使用效率调整所述训练后的神经网络的神经网络通道参数,得到第一神经网络。
在一种可能的设计中,训练模块1302还用于:将所述第一神经网络作为所述初始神经网络进行迭代,得到每次迭代后的第一神经网络,并通过多个测试数据测试所述第一神经网络的性能以及每次迭代后的第一神经网络的性能,之后获取迭代次数,该迭代次数可以预先设置(如,迭代次数设置为20次),当所述迭代次数达到预设阈值时,从所述第一神经网络及每轮迭代后的各个第一神经网络中确定出性能最优的第一神经网络为目标神经网络(如,具体操作可以是每次迭代获取到第一神经网络后就利用测试数据测试该第一神经网络的性能,并保存该性能以及该性能对应的神经网络通道参数),并输出该目标神经网络,该输出的目标神经网络就是上述所述的经过优化后的神经网络。
在一种可能的设计中,确定模块1303具体用于:获取所述训练后的神经网络中任意一层对算力与该层通道数的函数,并根据所述函数计算所述任意一层中的通道被丢弃的比例,之后,根据该比例随机丢弃所述任意一层的至少一个通道,得到丢弃部分通道的第二神经网络,最后,确定所述第二神经网络通过所述多个验证数据反应出的性能变化量为所述算力的使用效率。
在一种可能的设计中,确定模块1303具体还用于:对所述函数求导,得到所述函数的导数,并根据所述导数确定所述任意一层对算力降低预设值时需要丢弃的通道数,之后确定所述需要丢弃的通道数与所述任意一层的通道数的比值为所述比例。
在一种可能的设计中,性能变化量具体可以包括所述第二神经网络通过所述多个验证数据反应出的第一损失函数与未丢弃通道之前的神经网络通过所述多个验证数据反应出的第二损失函数的差值,也可以是多个验证数据通过第二神经网络上进行识别得到的识别结果的准确率与未丢弃通道之前的神经网络通过所述多个验证数据得到的识别结果的准确率的差值,具体此处对性能变化量不做限定,只要能衡量未丢弃通道前后的神经网络的性能差别的量都可称为所述的性能变化量。
在一种可能的设计中,调整模块1304具体用于:获取所述训练后的神经网络中每一层对算力的使用效率,并增加较大的前m个算力的使用效率对应的层的通道数且降低较小的后n个算力的使用效率对应的层的通道数,其中,前m个为各层对应的算力的使用效率由高到低排序时的排在第m+1个序号之前的m个,后n个为各层对应的算力的使用效率由高到低排序时倒数第n-1个序号之后的n个,m可以与n相同,也可以不同,具体此处不做限定。
在一种可能的设计中,调整模块1304具体还用于:将较大的前m个算力的使用效率对应的层的通道数按第一预设比例(如,10%)增加且较小的后n个算力的使用效率对应的层的通道数按第二预设比例(如,5%)降低,第一预设比例可以与第二预设比例相同,也可以不同,具体此处也不做限定。
在一种可能的设计中,算力可以是FLOPs,对应地,算力的使用效率就可以是FUR。
在一种可能的设计中,数据集可以是通过传感器获取到的多个数据,如,可以是通过摄像头、红线感应等传感器获取到的数据。
在另一种可能的设计中,数据集还可以是多个图像数据或多个视频数据,此处不做限定。
需要说明的是,训练设备1300中各模块/单元之间的信息交互、执行过程等内容,与本申请中图8-10对应的实施例基于同一构思,具体内容可参见本申请前述所示的方法实施例中的叙述,此处不再赘述。
本申请实施例还提供一种执行设备,请参阅图14,图14为本申请实施例提供的执行设备的一种结构示意图,执行设备1400包括:获取模块1401以及操作模块1402,其中,获取模块1401,用于获取目标图像,该目标图像可以是即将要被识别或定位的图片/视频帧等,操作模块1402,用于通过目标神经网络对所述目标图像进行操作,输出对所述目标图像的识别结果,如,该识别结果可以是目标图像中目标物体的类别信息、位置信息等。所述目标神经网络为根据网络中任意一层对算力的使用效率调整过神经网络通道参数的神经网络。具体地,如何根据网络中任意一层对算力的使用效率调整神经网络通道参数可以参阅上述图3-5、图8-11对应的实施例所述的神经网络通道参数搜索方法或神经网络通道参数搜索系统所执行的步骤,此处不予赘述。此外,通过前述描述可知,本申请上述图3-5、图8-11对应的实施例中对神经网络仅是在训练阶段优化了神经网络通道参数,对优化后的神经网络的应用阶段并未做出改进,因此,以目标神经网络为CNN为例,执行设备通过CNN对该目标图像进行操作具体可以如图6所示,该目标图像作为输入,分别经由CNN的输入层110、卷积层/池化层120、神经网络层130的进行对应处理,具体的处理过程请参阅图6,此处不予赘述。
需要说明的是,执行设备1400中各模块/单元之间的信息交互、执行过程等内容,与本申请中图12对应的实施例基于同一构思,具体内容可参见本申请前述所示的方法实施例中的叙述,此处不再赘述。
接下来介绍本申请实施例提供的一种训练设备,请参阅图15,图15为本申请实施例提供的训练设备的一种结构示意图,训练设备1500上可以部署有图13对应实施例中所描述的训练设备1300,用于实现图13对应实施例中训练设备1300的功能,具体的,训练设备1500由一个或多个服务器实现,训练设备1500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)1522(例如,一个或一个以上处理器)和存储器1532,一个或一个以上存储应用程序1542或数据1544的存储介质1530(例如一个或一个以上海量存储设备)。其中,存储器1532和存储介质1530可以是短暂存储或持久存储。存储在存储介质1530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对训练设备1500中的一系列指令操作。更进一步地,中央处理器1522可以设置为与存储介质1530通信,在训练设备1500上执行存储介质1530中的一系列指令操作。
训练设备1500还可以包括一个或一个以上电源1526,一个或一个以上有线或无线网络接口1550,一个或一个以上输入输出接口1558,和/或,一个或一个以上操作系统1541,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
本申请实施例中,中央处理器1522,用于执行图8对应实施例中的训练设备执行的神经网络通道参数的搜索方法。具体地,中央处理器1522用于获取数据集,所述数据集包括多个训练数据及多个验证数据,之后根据所述多个训练数据对初始神经网络进行训练,得到训练后的神经网络,并根据所述多个验证数据确定所述训练后的神经网络中任意一层对算力的使用效率,所述算力的使用效率为单位算力引起的网络性能改变量,最后根据所述算力的使用效率调整所述训练后的神经网络的神经网络通道参数,得到第一神经网络。需要说明的是,在本申请的一些实施方式中,算力可以是FLOPs,对应地,算力的使用效率就可以是FUR。还需要说明的是,在本申请的一些实施方式中,数据集可以是通过传感器获取到的多个数据,如,可以是通过摄像头、红线感应等传感器获取到的数据。在另一种可能的设计中,数据集还可以是多个图像数据或多个视频数据,此处不做限定。
在一种可能的设计种,中央处理器1522,还用于将所述第一神经网络作为所述初始神经网络进行迭代,得到每次迭代后的第一神经网络,并通过多个测试数据测试所述第一神经网络的性能以及每次迭代后的第一神经网络的性能,之后获取迭代次数,该迭代次数可以预先设置(如,迭代次数设置为20次),当所述迭代次数达到预设阈值时,从所述第一神经网络及每轮迭代后的各个第一神经网络中确定出性能最优的第一神经网络为目标神经网络(如,具体操作可以是每次迭代获取到第一神经网络后就利用测试数据测试该第一神经网络的性能,并保存该性能以及该性能对应的神经网络通道参数),并输出该目标神经网络,该输出的目标神经网络就是上述所述的经过优化后的神经网络。
在一种可能的设计中,中央处理器1522,具体用于获取所述训练后的神经网络中任意一层的算力与该层通道数的函数,并根据所述函数计算所述任意一层中的通道被丢弃的比例,之后,根据所述比例随机丢弃所述任意一层的至少一个通道,得到丢弃部分通道的第二神经网络,最后,确定所述第二神经网络通过所述多个验证数据反应出的性能变化量为所述算力的使用效率。需要说明的是,性能变化量具体可以包括所述第二神经网络通过所述多个验证数据反应出的第一损失函数与未丢弃通道之前的神经网络通过所述多个验证数据反应出的第二损失函数的差值,也可以是多个验证数据通过第二神经网络上进行识别得到的识别结果的准确率与未丢弃通道之前的神经网络通过所述多个验证数据得到的识别结果的准确率的差值,具体此处对性能变化量不做限定,只要能衡量未丢弃通道前后的神经网络的性能差别的量都可称为所述的性能变化量。
在一种可能的设计中,中央处理器1522,具体还用于对所述函数求导,得到所述函数的导数,并根据所述导数确定所述任意一层对算力降低预设值时需要丢弃的通道数,之后确定所述需要丢弃的通道数与所述任意一层通道数的比值为所述比例。
在一种可能的设计中,中央处理器1522,具体还用于获取所述训练后的神经网络中每一层对算力的使用效率,并增加较大的前m个算力的使用效率对应的层的通道数且降低较小的后n个算力的使用效率对应的层的通道数,其中,m可以与n相同,也可以不同,具体此处不做限定。例如,可以是将较大的前m个算力的使用效率对应的层的通道数按第一预设比例(如,10%)增加且较小的后n个算力的使用效率对应的层的通道数按第二预设比例(如,5%)降低,第一预设比例可以与第二预设比例相同,也可以不同,具体此处也不做限定。
需要说明的是,中央处理器1522执行上述各个步骤的具体方式,与本申请中图8对应的方法实施例基于同一构思,其带来的技术效果与本申请中图8对应的实施例相同,具体内容可参见本申请前述所示的方法实施例中的叙述,此处不再赘述。
接下来介绍本申请实施例提供的一种执行设备,请参阅图16,图16为本申请实施例提供的执行设备的一种结构示意图,执行设备1600具体可以表现为各种终端设备,如虚拟现实VR设备、手机、平板、笔记本电脑、智能穿戴设备、监控数据处理设备或者雷达数据处理设备等,此处不做限定。其中,执行设备1600上可以部署有图14对应实施例中所描述的执行设备1400,用于实现图14对应实施例中执行设备1400的功能。具体的,执行设备1600包括:接收器1601、发射器1602、处理器1603和存储器1604(其中执行设备1600中的处理器1603的数量可以一个或多个,图16中以一个处理器为例),其中,处理器1603可以包括应用处理器16031和通信处理器16032。在本申请的一些实施例中,接收器1601、发射器1602、处理器1603和存储器1604可通过总线或其它方式连接。
存储器1604可以包括只读存储器和随机存取存储器,并向处理器1603提供指令和数据。存储器1604的一部分还可以包括非易失性随机存取存储器(non-volatile randomaccess memory,NVRAM)。存储器1604存储有处理器和操作指令、可执行模块或者数据结构,或者它们的子集,或者它们的扩展集,其中,操作指令可包括各种操作指令,用于实现各种操作。
处理器1603控制执行设备1600的操作。具体的应用中,执行设备1600的各个组件通过总线系统耦合在一起,其中总线系统除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都称为总线系统。
本申请上述图12对应实施例揭示的方法可以应用于处理器1603中,或者由处理器1603实现。处理器1603可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器1603中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器1603可以是通用处理器、数字信号处理器(digital signal processing,DSP)、微处理器或微控制器,还可进一步包括专用集成电路(application specificintegrated circuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。该处理器1603可以实现或者执行本申请图12对应的实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器1604,处理器1603读取存储器1604中的信息,结合其硬件完成上述方法的步骤。
接收器1601可用于接收输入的数字或字符信息,以及产生与执行设备1600的相关设置以及功能控制有关的信号输入。发射器1602可用于通过第一接口输出数字或字符信息;发射器1602还可用于通过第一接口向磁盘组发送指令,以修改磁盘组中的数据;发射器1602还可以包括显示屏等显示设备。
本申请实施例中,在一种情况下,处理器1603,用于执行图12对应实施例中的执行设备执行的图像处理方法。具体的,应用处理器16031,用于获取目标图像,该目标图像可以是即将要被识别或定位的图片/视频帧等。之后,应用处理器16031将用于通过目标神经网络对该目标图像进行操作,该目标神经网络为根据网络中任意一层对算力的使用效率调整过神经网络通道参数的神经网络。具体地,如何根据网络中任意一层对算力的使用效率调整神经网络通道参数可以参阅上述图3-5、图8-11对应的实施例所述的神经网络通道参数搜索方法或神经网络通道参数搜索系统所执行的步骤,此处不予赘述。经过神经网络的处理后,最后应用处理器16031,还用于输出对该目标对象的识别结果,如,该识别结果可以是目标图像中目标物体的类别信息、位置信息等。
本申请实施例中还提供一种计算机可读存储介质,该计算机可读存储介质中存储有用于进行信号处理的程序,当其在计算机上运行时,使得计算机执行如前述图8所示实施例描述的方法中训练设备所执行的步骤,或者,使得计算机执行如前述图12所示实施例描述的方法中执行设备所执行的步骤。
本申请实施例提供的训练设备、执行设备等具体可以为芯片,芯片包括:处理单元和通信单元,所述处理单元例如可以是处理器,所述通信单元例如可以是输入/输出接口、管脚或电路等。该处理单元可执行存储单元存储的计算机执行指令,以使训练设备内的芯片执行上述图8所示实施例描述的神经网络通道参数搜索方法,或者,以使执行设备内的芯片执行上述图12所示实施例描述的图像处理方法。可选地,所述存储单元为所述芯片内的存储单元,如寄存器、缓存等,所述存储单元还可以是所述无线接入设备端内的位于所述芯片外部的存储单元,如只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)等。
具体的,请参阅图17,图17为本申请实施例提供的芯片的一种结构示意图,所述芯片可以表现为神经网络处理器NPU 200,NPU 200作为协处理器挂载到主CPU(Host CPU)上,由Host CPU分配任务。NPU的核心部分为运算电路2003,通过控制器2004控制运算电路2003提取存储器中的矩阵数据并进行乘法运算。
在一些实现中,运算电路2003内部包括多个处理单元(Process Engine,PE)。在一些实现中,运算电路2003是二维脉动阵列。运算电路2003还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现中,运算电路2003是通用的矩阵处理器。
举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路从权重存储器2002中取矩阵B相应的数据,并缓存在运算电路中每一个PE上。运算电路从输入存储器2001中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器(accumulator)2008中。
统一存储器2006用于存放输入数据以及输出数据。权重数据直接通过存储单元访问控制器(Direct Memory Access Controller,DMAC)2005,DMAC被搬运到权重存储器2002中。输入数据也通过DMAC被搬运到统一存储器2006中。
BIU为Bus Interface Unit即,总线接口单元2010,用于AXI总线与DMAC和取指存储器(Instruction Fetch Buffer,IFB)2009的交互。
总线接口单元2010(Bus Interface Unit,简称BIU),用于取指存储器2009从外部存储器获取指令,还用于存储单元访问控制器2005从外部存储器获取输入矩阵A或者权重矩阵B的原数据。
DMAC主要用于将外部存储器DDR中的输入数据搬运到统一存储器2006或将权重数据搬运到权重存储器2002中或将输入数据数据搬运到输入存储器2001中。
向量计算单元2007包括多个运算处理单元,在需要的情况下,对运算电路的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。主要用于神经网络中非卷积/全连接层网络计算,如Batch Normalization(批归一化),像素级求和,对特征平面进行上采样等。
在一些实现中,向量计算单元2007能将经处理的输出的向量存储到统一存储器2006。例如,向量计算单元2007可以将线性函数和/或非线性函数应用到运算电路2003的输出,例如对卷积层提取的特征平面进行线性插值,再例如累加值的向量,用以生成激活值。在一些实现中,向量计算单元2007生成归一化的值、像素级求和的值,或二者均有。在一些实现中,处理过的输出的向量能够用作到运算电路2003的激活输入,例如用于在神经网络中的后续层中的使用。
控制器2004连接的取指存储器(instruction fetch buffer)2009,用于存储控制器2004使用的指令;
统一存储器2006,输入存储器2001,权重存储器2002以及取指存储器2009均为On-Chip存储器。外部存储器私有于该NPU硬件架构。
其中,图6和图7所示的CNN中各层的运算可以由运算电路2003或向量计算单元2007执行。
其中,上述任一处提到的处理器,可以是一个通用中央处理器,微处理器,ASIC,或一个或多个用于控制上述第一方面方法的程序执行的集成电路。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本申请提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本申请而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘、U盘、移动硬盘、ROM、RAM、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,训练设备,或者网络设备等)执行本申请各个实施例所述的方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、训练设备或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、训练设备或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的训练设备、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(Solid State Disk,SSD))等。
Claims (16)
1.一种神经网络通道参数的搜索方法,其特征在于,包括:
获取数据集,所述数据集包括多个训练数据及多个验证数据,所述数据集为多个图像数据或多个视频数据;
根据所述多个训练数据对初始神经网络进行训练,得到训练后的神经网络;
根据所述多个验证数据确定所述训练后的神经网络中任意一层对浮点运算数FLOPs的使用效率,所述FLOPs的使用效率为单位FLOPs引起的网络性能改变量;
根据所述FLOPs的使用效率调整所述训练后的神经网络的神经网络通道参数,得到第一神经网络;
所述根据所述多个验证数据确定所述训练后的神经网络中任意一层对FLOPs的使用效率包括:
获取所述训练后的神经网络中任意一层的FLOPs与该层通道数的函数;
根据所述函数计算所述任意一层中的通道被丢弃的比例;
根据所述比例随机丢弃所述任意一层的至少一个通道,得到丢弃部分通道的第二神经网络;
确定所述第二神经网络通过所述多个验证数据反应出的性能变化量为所述FLOPs的使用效率;
所述根据所述FLOPs的使用效率调整所述训练后的神经网络的神经网络通道参数包括:
获取所述训练后的神经网络中每一层对FLOPs的使用效率;
增加较大的前m个FLOPs的使用效率对应的层的通道数且降低较小的后n个FLOPs的使用效率对应的层的通道数,其中,前m个为各层对应的FLOPs的使用效率由高到低排序时的排在第m+1个序号之前的m个,后n个为各层对应的FLOPs的使用效率由高到低排序时倒数第n-1个序号之后的n个。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述第一神经网络作为所述初始神经网络进行迭代,得到每次迭代后的第一神经网络,并通过多个测试数据测试所述第一神经网络的性能以及每次迭代后的第一神经网络的性能;
获取迭代次数;
当所述迭代次数达到预设阈值时,从所述第一神经网络及每轮迭代后的各个第一神经网络中确定出性能最优的第一神经网络为目标神经网络,并输出所述目标神经网络。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述函数计算所述任意一层中的通道被丢弃的比例包括:
对所述函数求导,得到所述函数的导数;
根据所述导数确定所述任意一层对FLOPs降低预设值时需要丢弃的通道数;
确定所述需要丢弃的通道数与任意一层的通道数的比值为所述比例。
4.根据权利要求3所述的方法,其特征在于,所述性能变化量包括:
所述第二神经网络通过所述多个验证数据反应出的第一损失函数与未丢弃通道之前的神经网络通过所述多个验证数据反应出的第二损失函数的差值。
5.根据权利要求1或2所述的方法,其特征在于,所述增加较大的前m个FLOPs的使用效率对应的层的通道数且降低较小的后n个FLOPs的使用效率对应的层的通道数包括:
将较大的前m个FLOPs的使用效率对应的层的通道数按第一预设比例增加且较小的后n个FLOPs的使用效率对应的层的通道数按第二预设比例降低。
6.一种图像处理方法,其特征在于,包括:
获取目标图像;
通过目标神经网络对所述目标图像进行操作,输出对所述目标图像的识别结果,所述目标神经网络为根据网络中任意一层对浮点运算数FLOPs的使用效率调整过神经网络通道参数的神经网络;
其中,所述任意一层对浮点运算数FLOPs的使用效率基于所述任意一层的FLOPs与该层通道数的函数得到,所述函数用于确定所述任意一层中的通道被丢弃的比例,按照所述比例丢弃所述任意一层的至少一个通道,得到丢弃部分通道的第二神经网络,所述第二神经网络的性能变化量为所述FLOPs的使用效率;
在神经网络通道参数的调整过程中,较大的前m个FLOPs的使用效率对应的层的通道数被增加,且较小的后n个FLOPs的使用效率对应的层的通道数被降低,前m个为各层对应的FLOPs的使用效率由高到低排序时的排在第m+1个序号之前的m个,后n个为各层对应的FLOPs的使用效率由高到低排序时倒数第n-1个序号之后的n个。
7.一种训练设备,其特征在于,包括:
获取模块,用于获取数据集,所述数据集包括多个训练数据及多个验证数据,所述数据集为多个图像数据或多个视频数据;
训练模块,用于根据所述多个训练数据对初始神经网络进行训练,得到训练后的神经网络;
确定模块,用于根据所述多个验证数据确定所述训练后的神经网络中任意一层对浮点运算数FLOPs的使用效率,所述FLOPs的使用效率为单位FLOPs引起的网络性能改变量;
调整模块,用于根据所述FLOPs的使用效率调整所述训练后的神经网络的神经网络通道参数,得到第一神经网络;
所述确定模块具体用于:
获取所述训练后的神经网络中任意一层对FLOPs与该层通道数的函数;
根据所述函数计算所述任意一层中的通道被丢弃的比例;
根据所述比例随机丢弃所述任意一层的至少一个通道,得到丢弃部分通道的第二神经网络;
确定所述第二神经网络通过所述多个验证数据反应出的性能变化量为所述FLOPs的使用效率;
所述调整模块具体用于:
获取所述训练后的神经网络中每一层对FLOPs的使用效率;
增加较大的前m个FLOPs的使用效率对应的层的通道数且降低较小的后n个FLOPs的使用效率对应的层的通道数,其中,前m个为各层对应的FLOPs的使用效率由高到低排序时的排在第m+1个序号之前的m个,后n个为各层对应的FLOPs的使用效率由高到低排序时倒数第n-1个序号之后的n个。
8.根据权利要求7所述的设备,其特征在于,所述训练模块还用于:
将所述第一神经网络作为所述初始神经网络进行迭代,得到每次迭代后的第一神经网络,并通过多个测试数据测试所述第一神经网络的性能以及每次迭代后的第一神经网络的性能;
获取迭代次数;
当所述迭代次数达到预设阈值时,从所述第一神经网络及每轮迭代后的各个第一神经网络中确定出性能最优的第一神经网络为目标神经网络,并输出所述目标神经网络。
9.根据权利要求7或8所述的设备,其特征在于,所述确定模块具体还用于:
对所述函数求导,得到所述函数的导数;
根据所述导数确定所述任意一层对FLOPs降低预设值时需要丢弃的通道数;
确定所述需要丢弃的通道数与任意一层的通道数的比值为所述比例。
10.根据权利要求7或8所述的设备,其特征在于,所述性能变化量包括:
所述第二神经网络通过所述多个验证数反应出的第一损失函数与未丢弃通道之前的神经网络通过所述多个验证数据反应出的第二损失函数的差值。
11.根据权利要求7或8所述的设备,其特征在于,所述调整模块具体还用于:
将较大的前m个FLOPs的使用效率对应的层的通道数按第一预设比例增加且较小的后n个FLOPs的使用效率对应的层的通道数按第二预设比例降低。
12.一种执行设备,其特征在于,包括:
获取模块,用于获取目标图像;
操作模块,用于通过目标神经网络对所述目标图像进行操作,输出对所述目标图像的识别结果,所述目标神经网络为根据网络中任意一层对浮点运算数FLOPs的使用效率调整过神经网络通道参数的神经网络;
其中,所述任意一层对浮点运算数FLOPs的使用效率基于所述任意一层的FLOPs与该层通道数的函数得到,所述函数用于确定所述任意一层中的通道被丢弃的比例,按照所述比例丢弃所述任意一层的至少一个通道,得到丢弃部分通道的第二神经网络,所述第二神经网络的性能变化量为所述FLOPs的使用效率;
在神经网络通道参数的调整过程中,较大的前m个FLOPs的使用效率对应的层的通道数被增加,且较小的后n个FLOPs的使用效率对应的层的通道数被降低,前m个为各层对应的FLOPs的使用效率由高到低排序时的排在第m+1个序号之前的m个,后n个为各层对应的FLOPs的使用效率由高到低排序时倒数第n-1个序号之后的n个。
13.一种训练设备,包括处理器和存储器,所述处理器与所述存储器耦合,其特征在于,
所述存储器,用于存储程序;
所述处理器,用于执行所述存储器中的程序,使得所述训练设备执行如权利要求1-5中任一项所述的方法。
14.一种执行设备,包括处理器和存储器,所述处理器与所述存储器耦合,其特征在于,
所述存储器,用于存储程序;
所述处理器,用于执行所述存储器中的程序,使得所述执行设备执行如权利要求6中所述的方法。
15.一种芯片,其特征在于,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行计算机程序或指令,使得权利要求1-5中任一项所述的方法被执行,或者,使得权利要求6中所述的方法被执行。
16.一种计算机可读存储介质,包括程序,当其在计算机上运行时,使得计算机执行如权利要求1-5中任一项所述的方法,或者,使得计算机执行如权利要求6中所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010109184.0A CN111401516B (zh) | 2020-02-21 | 2020-02-21 | 一种神经网络通道参数的搜索方法及相关设备 |
PCT/CN2021/076986 WO2021164752A1 (zh) | 2020-02-21 | 2021-02-20 | 一种神经网络通道参数的搜索方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010109184.0A CN111401516B (zh) | 2020-02-21 | 2020-02-21 | 一种神经网络通道参数的搜索方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401516A CN111401516A (zh) | 2020-07-10 |
CN111401516B true CN111401516B (zh) | 2024-04-26 |
Family
ID=71430374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010109184.0A Active CN111401516B (zh) | 2020-02-21 | 2020-02-21 | 一种神经网络通道参数的搜索方法及相关设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111401516B (zh) |
WO (1) | WO2021164752A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401516B (zh) * | 2020-02-21 | 2024-04-26 | 华为云计算技术有限公司 | 一种神经网络通道参数的搜索方法及相关设备 |
CN111985644B (zh) * | 2020-08-28 | 2024-03-08 | 北京市商汤科技开发有限公司 | 神经网络生成方法及装置、电子设备及存储介质 |
CN112101525A (zh) * | 2020-09-08 | 2020-12-18 | 南方科技大学 | 一种通过nas设计神经网络的方法、装置和系统 |
CN112269981A (zh) * | 2020-11-17 | 2021-01-26 | 深圳杰微芯片科技有限公司 | 基于区块链算力设备数据搭建方法、服务器和存储介质 |
CN112488563B (zh) * | 2020-12-11 | 2023-06-06 | 中国联合网络通信集团有限公司 | 一种算力参数的确定方法和装置 |
CN112650943B (zh) * | 2020-12-24 | 2022-07-26 | 厦门地铁创新科技有限公司 | 多云服务器的协同数据检索系统及方法 |
CN113052300A (zh) * | 2021-03-29 | 2021-06-29 | 商汤集团有限公司 | 神经网络训练方法、装置、电子设备及存储介质 |
CN113947185B (zh) * | 2021-09-30 | 2022-11-18 | 北京达佳互联信息技术有限公司 | 任务处理网络生成、任务处理方法、装置、电子设备及存储介质 |
CN114492765A (zh) * | 2022-02-24 | 2022-05-13 | 腾讯科技(深圳)有限公司 | 一种模型优化方法、装置、设备及存储介质、程序产品 |
CN114866430A (zh) * | 2022-03-29 | 2022-08-05 | 北京智芯微电子科技有限公司 | 边缘计算的算力预测方法、算力编排方法及系统 |
CN114700957B (zh) * | 2022-05-26 | 2022-08-26 | 北京云迹科技股份有限公司 | 模型低算力需求的机器人控制方法及装置 |
CN115099393B (zh) * | 2022-08-22 | 2023-04-07 | 荣耀终端有限公司 | 神经网络结构搜索方法及相关装置 |
CN116795066B (zh) * | 2023-08-16 | 2023-10-27 | 南京德克威尔自动化有限公司 | 远程io模块的通信数据处理方法、系统、服务器及介质 |
CN117131920B (zh) * | 2023-10-26 | 2024-01-30 | 北京市智慧水务发展研究院 | 一种基于网络结构搜索的模型剪枝方法 |
CN117237788B (zh) * | 2023-11-14 | 2024-03-01 | 浙江大华技术股份有限公司 | 图像处理方法、设备和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451658A (zh) * | 2017-07-24 | 2017-12-08 | 杭州菲数科技有限公司 | 浮点运算定点化方法及系统 |
CN108985386A (zh) * | 2018-08-07 | 2018-12-11 | 北京旷视科技有限公司 | 获得图像处理模型的方法、图像处理方法及对应装置 |
CN109284820A (zh) * | 2018-10-26 | 2019-01-29 | 北京图森未来科技有限公司 | 一种深度神经网络的结构搜索方法及装置 |
CN110175671A (zh) * | 2019-04-28 | 2019-08-27 | 华为技术有限公司 | 神经网络的构建方法、图像处理方法及装置 |
CN110555450A (zh) * | 2018-05-31 | 2019-12-10 | 北京深鉴智能科技有限公司 | 人脸识别神经网络调整方法和装置 |
CN110598731A (zh) * | 2019-07-31 | 2019-12-20 | 浙江大学 | 一种基于结构化剪枝的高效图像分类方法 |
CN110619385A (zh) * | 2019-08-31 | 2019-12-27 | 电子科技大学 | 基于多级剪枝的结构化网络模型压缩加速方法 |
CN110647990A (zh) * | 2019-09-18 | 2020-01-03 | 无锡信捷电气股份有限公司 | 基于灰色关联分析的深度卷积神经网络模型的裁剪方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11093826B2 (en) * | 2016-02-05 | 2021-08-17 | International Business Machines Corporation | Efficient determination of optimized learning settings of neural networks |
US10360494B2 (en) * | 2016-11-30 | 2019-07-23 | Altumview Systems Inc. | Convolutional neural network (CNN) system based on resolution-limited small-scale CNN modules |
US10713540B2 (en) * | 2017-03-07 | 2020-07-14 | Board Of Trustees Of Michigan State University | Deep learning system for recognizing pills in images |
US20190251442A1 (en) * | 2018-02-14 | 2019-08-15 | Nvidia Corporation | Pruning convolutional neural networks |
US11586907B2 (en) * | 2018-02-27 | 2023-02-21 | Stmicroelectronics S.R.L. | Arithmetic unit for deep learning acceleration |
CN109460613A (zh) * | 2018-11-12 | 2019-03-12 | 北京迈格威科技有限公司 | 模型裁剪方法及装置 |
CN110689113A (zh) * | 2019-09-19 | 2020-01-14 | 浙江大学 | 一种基于大脑共识主动性的深度神经网络压缩方法 |
CN111401516B (zh) * | 2020-02-21 | 2024-04-26 | 华为云计算技术有限公司 | 一种神经网络通道参数的搜索方法及相关设备 |
-
2020
- 2020-02-21 CN CN202010109184.0A patent/CN111401516B/zh active Active
-
2021
- 2021-02-20 WO PCT/CN2021/076986 patent/WO2021164752A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451658A (zh) * | 2017-07-24 | 2017-12-08 | 杭州菲数科技有限公司 | 浮点运算定点化方法及系统 |
CN110555450A (zh) * | 2018-05-31 | 2019-12-10 | 北京深鉴智能科技有限公司 | 人脸识别神经网络调整方法和装置 |
CN108985386A (zh) * | 2018-08-07 | 2018-12-11 | 北京旷视科技有限公司 | 获得图像处理模型的方法、图像处理方法及对应装置 |
CN109284820A (zh) * | 2018-10-26 | 2019-01-29 | 北京图森未来科技有限公司 | 一种深度神经网络的结构搜索方法及装置 |
CN110717586A (zh) * | 2018-10-26 | 2020-01-21 | 北京图森未来科技有限公司 | 一种深度神经网络的结构搜索方法及装置 |
CN110175671A (zh) * | 2019-04-28 | 2019-08-27 | 华为技术有限公司 | 神经网络的构建方法、图像处理方法及装置 |
CN110598731A (zh) * | 2019-07-31 | 2019-12-20 | 浙江大学 | 一种基于结构化剪枝的高效图像分类方法 |
CN110619385A (zh) * | 2019-08-31 | 2019-12-27 | 电子科技大学 | 基于多级剪枝的结构化网络模型压缩加速方法 |
CN110647990A (zh) * | 2019-09-18 | 2020-01-03 | 无锡信捷电气股份有限公司 | 基于灰色关联分析的深度卷积神经网络模型的裁剪方法 |
Non-Patent Citations (2)
Title |
---|
Universally Slimmable Networks and Improved Training Techniques;Jiahui Yu等;《arXiv.org》;第1-11页 * |
深度神经网络压缩与加速综述;纪荣嵘等;《计算机研究与发展》;第1871-1888页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111401516A (zh) | 2020-07-10 |
WO2021164752A1 (zh) | 2021-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401516B (zh) | 一种神经网络通道参数的搜索方法及相关设备 | |
WO2022083536A1 (zh) | 一种神经网络构建方法以及装置 | |
CN111797893B (zh) | 一种神经网络的训练方法、图像分类系统及相关设备 | |
WO2022068623A1 (zh) | 一种模型训练方法及相关设备 | |
CN111797983A (zh) | 一种神经网络构建方法以及装置 | |
WO2022179492A1 (zh) | 一种卷积神经网络的剪枝处理方法、数据处理方法及设备 | |
CN110738235B (zh) | 肺结核判定方法、装置、计算机设备及存储介质 | |
CN108229673B (zh) | 卷积神经网络的处理方法、装置和电子设备 | |
CN113705769A (zh) | 一种神经网络训练方法以及装置 | |
WO2022111617A1 (zh) | 一种模型训练方法及装置 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
WO2022228425A1 (zh) | 一种模型训练方法及装置 | |
CN111414915B (zh) | 一种文字识别方法以及相关设备 | |
CN112580720A (zh) | 一种模型训练方法及装置 | |
CN113570029A (zh) | 获取神经网络模型的方法、图像处理方法及装置 | |
CN113095475A (zh) | 一种神经网络的训练方法、图像处理方法以及相关设备 | |
CN113065997B (zh) | 一种图像处理方法、神经网络的训练方法以及相关设备 | |
CN113592060A (zh) | 一种神经网络优化方法以及装置 | |
WO2023274052A1 (zh) | 一种图像分类方法及其相关设备 | |
CN113807399A (zh) | 一种神经网络训练方法、检测方法以及装置 | |
CN111738403A (zh) | 一种神经网络的优化方法及相关设备 | |
US20230137337A1 (en) | Enhanced machine learning model for joint detection and multi person pose estimation | |
CN113408570A (zh) | 一种基于模型蒸馏的图像类别识别方法、装置、存储介质及终端 | |
CN114359289A (zh) | 一种图像处理方法及相关装置 | |
CN114091554A (zh) | 一种训练集处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220211 Address after: 550025 Huawei cloud data center, jiaoxinggong Road, Qianzhong Avenue, Gui'an New District, Guiyang City, Guizhou Province Applicant after: Huawei Cloud Computing Technology Co.,Ltd. Address before: 518129 Bantian HUAWEI headquarters office building, Longgang District, Guangdong, Shenzhen Applicant before: HUAWEI TECHNOLOGIES Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |