CN111488990A - 一种基于性能感知的模型裁剪方法、装置、设备和介质 - Google Patents

一种基于性能感知的模型裁剪方法、装置、设备和介质 Download PDF

Info

Publication number
CN111488990A
CN111488990A CN202010306057.XA CN202010306057A CN111488990A CN 111488990 A CN111488990 A CN 111488990A CN 202010306057 A CN202010306057 A CN 202010306057A CN 111488990 A CN111488990 A CN 111488990A
Authority
CN
China
Prior art keywords
performance
model
clipping
cutting
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010306057.XA
Other languages
English (en)
Other versions
CN111488990B (zh
Inventor
刘姝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN202010306057.XA priority Critical patent/CN111488990B/zh
Publication of CN111488990A publication Critical patent/CN111488990A/zh
Application granted granted Critical
Publication of CN111488990B publication Critical patent/CN111488990B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本发明公开了一种基于性能感知的模型裁剪方法,包括:获取不同的通道设置在软件平台上的符合预设标准的性能表现;根据性能表现,搜索并获取不同精度的若干第一候选裁剪模型;根据计算量在若干第一候选裁剪模型中获取精度最高的预设数量的第二候选裁剪模型;通过硬件计算平台分别获取预设数量的第二候选裁剪模型的实际延时性能表现,从预设数量的第二候选裁剪模型中获取实际延时性能表现最高的裁剪模型进行裁剪。本发明还公开了一种装置、设备和介质。本发明提出的基于性能感知的模型裁剪方法、装置、设备和介质可满足深度学习用户对神经网络模型精度、资源占用、延时实时性能的多重需求。

Description

一种基于性能感知的模型裁剪方法、装置、设备和介质
技术领域
本发明涉及神经网络领域,更具体地,特别是指一种基于性能感知的模型裁剪方法、装置、设备和介质。
背景技术
近几年来随着深度学习技术的快速发展,越来越多的神经网络模型被应用到工业界中,并取得了惊人得成就,如ResNet50、ResNet101、InceptionV1-V3、SSD等,广泛应用于图像识别、目标检测等领域。为了得到更好得精度指标,神经网络模型被设计得越来越复杂,紧接着带来的问题是复杂模型很难部署到内存、带宽等资源受限的硬件平台或移动设备,同时对于一些如在线学习、增量学习以及自动驾驶的实时应用来说,计算量、参数量高达数千万或上亿的复杂模型很难满足其实时要求。模型压缩成为深度学习应用加速的一大重要目标,模型参数剪枝是目前模型加速的一个重要方向,模型剪枝包括非结构化裁剪与结构化裁剪,结构化裁剪是对神经网络模型通道(channel)级别的裁剪,不受计算平台的限制,应用范围更广,从手动裁剪发展到自动化裁剪,通过裁剪相应channel来降低模型计算复杂度,从而满足神经网络模型对计算资源、实时性的需求。
目前的模型裁剪压缩方法中,多数聚焦在计算量(FLOPs)或参数量(Params)的裁剪,结构化裁剪就是通过逐渐裁剪神经网络各层channel连接个数,通过降低模型计算量或参数量的方式达到降低模型复杂度的需求。目前的结构化裁剪技术包括channel pruning、DCP、AutoSlim、AMC、Meta-pruning等,他们一边通过相应技术裁剪模型各层通道个数(如网络架构搜索、通道重要性评估),达到计算量下降到指定目标,从而降低模型复杂度,同时通过相应技术保持模型精度(如目标函数优化、验证精度评估等),甚至可在将计算量裁剪50%的情况下保持精度损失在较小范围内。
Meta-pruning是一种基于神经网络模型架构搜索的AutoPruning自动化channel裁剪方法,该技术针对现有神经网络模型首先训练一个meta元网络,用于生成不同channel个数下候选裁剪模型的权重值,然后利用随机搜索的方式进行channel搜索,搜索过程中神经网络各层channel均有不同程度的裁剪,最后基于FLOPs限制得到满足特定FLOPs需求的裁剪模型。
图1示出了基于现有技术的裁剪方法的实施例的结构性示意图,如图1所示,训练阶段为训练一个meta元网络,目的是生成针对各个可能的通道裁剪模型的权重值;搜索阶段为裁剪模型搜索阶段,首先设置裁剪后模型FLOPs限制,通过对模型每层通道设置随机值进行裁剪模型随机搜索,得到满足FLOPs需求的裁剪模型,最后通过精度评估筛选得到满足FLOPs需求的精度较高的最终裁剪模型。
目前基于FLOPs限制的AutoPruning模型裁剪方法中,通过通道的裁剪搜索和组合可达到降低模型复杂度的需求,但是当应用到实际硬件平台时,网络难以达到真正的延时(latency)实时性能提升,如该技术对于resnet50的裁剪模型,在计算量降低50%的情况下,实际latency性能仅提升25%,导致无法满足用户对具体应用平台的实际性能提升需求。同时通过相应实验发现,同一个裁剪模型在不同的硬件平台或计算库上,性能表现存在一定差异。所以目前模型裁剪技术中单纯基于FLOPs的裁剪一般很难达到在特定计算平台上的实际性能的提升。
目前的手动模型裁剪或自动化模型裁剪技术中,多数基于标量信息裁剪(以FLOPs的降低为指标,通过降低计算量以降低模型复杂度),而忽略了裁剪后模型在具体硬件平台上的实际性能表现(如latcney),从而无法满足对裁剪网络实时性的要求。通过实验发现,基于channel裁剪的不同模型在裁剪到相同FLOPs下时,在特定硬件平台上的实际性能差异可到18%,同时随机设置裁剪channel值会导致搜索效率低下,且得到的裁剪模型在软硬件平台上的latency性能表现普遍较低。
发明内容
有鉴于此,本发明实施例的目的在于提供一种基于性能感知的AutoPruning模型裁剪,一方面通过神经网络搜索实现模型自动化裁剪,另一方面基于神经网络模型在特定硬件平台或软件加速库上的性能感知,优化裁剪模型通道目标值的设置,同时加入延时实际性能指标作为候选裁剪模型的选择目标。该发明可解决目前神经网络模型裁剪过程中存在的计算量降低与实际性能提升无法成正比、裁剪模型实时延时性能无法满足特定要求的问题,可实现裁剪模型性能的高效提升。
基于上述目的,本发明一方面提供了一种基于性能感知的模型裁剪方法,该方法包括:获取不同的通道设置在软件平台上的符合预设标准的性能表现;根据性能表现,搜索并获取不同精度的若干第一候选裁剪模型;根据计算量在若干第一候选裁剪模型中获取精度最高的预设数量的第二候选裁剪模型;通过硬件计算平台分别获取预设数量的第二候选裁剪模型的实际延时性能表现,从预设数量的第二候选裁剪模型中获取实际延时性能表现最高的裁剪模型进行裁剪。
在本发明的基于性能感知的模型裁剪方法的一些实施方式中,获取不同的通道设置在软件平台上的符合预设标准的性能表现还包括:基于神经网络模型各层通道设置的个数是否为32的整数倍来判断性能表现是否符合预设标准。
在本发明的基于性能感知的模型裁剪方法的一些实施方式中,获取不同的通道设置在软件平台上的符合预设标准的性能表现还包括:响应于计算量相同,基于卷积层的通道设置的个数来判断性能表现是否符合预设标准。
在本发明的基于性能感知的模型裁剪方法的一些实施方式中,通过硬件计算平台分别获取预设数量的第二候选裁剪模型的实际延时性能表现,从预设数量的第二候选裁剪模型中获取实际延时性能表现最高的裁剪模型进行裁剪还包括:
通过延时时间表示实际延时性能表现,延时时间越短表示实际延时性能表现越高。
在本发明的基于性能感知的模型裁剪方法的一些实施方式中,根据性能表现,搜索并获取不同精度的若干第一候选裁剪模型还包括:将通道设置的个数限制为32的整数倍进行搜索,并且对于神经网络较浅的层增大裁剪比率,较深的层减小裁剪比率进行裁剪。
本发明实施例的另一方面,还提供了一种基于性能感知的模型裁剪装置,该装置包括:性能探索模块,性能探索模块配置为获取不同的通道设置在软件平台上的符合预设标准的性能表现;第一候选模块,第一候选裁剪模块配置为根据性能表现,搜索并获取不同精度的若干第一候选裁剪模型;第二候选模块,第二候选裁剪模块配置为根据计算量在若干第一候选裁剪模型中获取精度最高的预设数量的第二候选裁剪模型;裁剪模块,裁剪模块配置为通过硬件计算平台分别获取预设数量的第二候选裁剪模型的实际延时性能表现,从预设数量的第二候选裁剪模型中获取实际延时性能表现最高的裁剪模型进行裁剪。
在本发明的基于性能感知的模型裁剪装置的一些实施方式中,性能探索模块还配置为:基于神经网络模型各层通道设置的个数是否为32的整数倍来判断性能表现是否符合预设标准。
在本发明的基于性能感知的模型裁剪装置的一些实施方式中,性能探索模块还配置为:响应于计算量相同,基于卷积层的通道设置的个数来判断性能表现是否符合预设标准。
本发明实施例的另一方面,还提供了一种计算机设备,该计算机设备包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机程序,处理器执行程序时执行前述的基于性能感知的模型裁剪方法。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,其特征在于,计算机程序被处理器执行时执行前述的基于性能感知的模型裁剪方法。
本发明至少具有以下有益技术效果:本发明提出的技术方案通过基于性能感知的模型裁剪实现神经网络模型加速,可解决神经网络模型压缩裁剪过程中存在的裁剪后模型难以得到理想加速性能提升的问题。本发明首先通过先验通道性能感知评估,产生神经网络模型的裁剪规则,然后通过规则搜索产生候选裁剪模型,最后通过精度、计算量、延时综合评估得到最终裁剪模型,同时满足硬件平台对计算资源的限制与实时性的要求。本发明实现了裁剪后模型基于特定软硬件平台实际延时性能的最优化,对于经典分类模型resnet50,裁剪后的模型在TensorRT上的延时性能可提升至2倍。本发明提出的技术方案可满足深度学习用户对深度学习模型的性能、精度需求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1示出了基于现有技术的裁剪方法的实施例的结构性示意图;
图2示出了根据本发明的基于性能感知的模型裁剪方法的实施例的示意性框图;
图3示出了根据本发明的基于性能感知的模型裁剪方法的实施例的结构性示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”和“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了一种基于性能感知的模型裁剪方法的实施例。图2示出的是根据本发明的基于性能感知的模型裁剪方法的实施例的示意图。如图2所示的实施例中,该方法至少包括如下步骤:
S100、获取不同的通道设置在软件平台上的符合预设标准的性能表现;
S200、根据性能表现,搜索并获取不同精度的若干第一候选裁剪模型;
S300、根据计算量在若干第一候选裁剪模型中获取精度最高的预设数量的第二候选裁剪模型;
S400、通过硬件计算平台分别获取预设数量的第二候选裁剪模型的实际延时性能表现,从预设数量的第二候选裁剪模型中获取实际延时性能表现最高的裁剪模型进行裁剪。
在本发明的一些实施例中,图3示出的是根据本发明的基于性能感知的模型裁剪方法的实施例的结构性示意图,如图3所示,本发明提出的基于性能感知的模型裁剪方法,以网络各层通道(channel)为基本裁剪单位,通过裁剪channel个数来降低计算量(FLOPs)和参数量(Params),进而降低模型复杂度,本发明结合裁剪后模型在具体硬件平台和软件加速库上的实际latency(延时)性能表现来选择最终裁剪模型,而非仅仅是以计算量或参数量为裁剪模型候选指标,可保证同时满足硬件平台对裁剪后模型资源限制、实时性的目标要求。
候选裁剪模型的选择,基于自动化channel搜索可产生不同精度下的多个候选模型,候选模型不仅仅以计算量(FLOPs)为主要评估指标,而是结合其在TensorRT上的实际latency性能表现,以精度、FLOPs、latency为候选模型的最终评估指标,实施方法如下:在FLOPs限制下自动化搜索得到精度最高的topk个候选模型,对于topk个候选模型,基于硬件计算平台分别评估其在TensorRT上的性能表现,以实际latency性能为关键评估指标,自动评估筛选得到在软硬件计算平台上实际latency性能最佳的裁剪模型。
本发明所提出的基于性能感知的裁剪方法,通过性能先验感知,裁剪效率最大限度提高,可在精度、FLOPs、latency上同时满足对裁剪模型的剪裁网络的需求,FLOPs可满足硬件资源限制的需求,latency可满足实时性能的需求,从而保证裁剪满足特定硬件计算平台上对计算资源限制、实时性限制的需求,实现了自动化裁剪模型的效率、性能、精度最大化。本发明提出的技术方案可适用于大部分硬件计算平台与软件加速库。
根据本发明的基于性能感知的模型裁剪方法的一些实施方式,获取不同的通道设置在软件平台上的符合预设标准的性能表现还包括:
基于神经网络模型各层通道设置的个数是否为32的整数倍来判断性能表现是否符合预设标准。例如,神经网络模型各层通道设置的个数为32的整数倍,则性能表现更高。
在本发明的一些实施例中,裁剪模型的软件加速库基于TensorRT,首先通过实验探索channel设定在软件平台上的性能表现,如在TensorRT上,当神经网络模型各层channel为32整数倍时(如各层channel个数为32、64…256、512),模型可达到更高的性能。
根据本发明的基于性能感知的模型裁剪方法的一些实施方式,获取不同的通道设置在软件平台上的符合预设标准的性能表现还包括:
响应于FLOPs相同,基于卷积层的通道设置的个数来判断性能表现是否符合预设标准。例如,通道设置的个数越大的卷积层的性能表现更高。
在本发明的一些实施例中,对于网络的不同卷积层,当计算量相同时,channel个数更大的卷积层实际性能表现更好,所以对channel数值较大的网络应尽可能保留更多channel。本发明提出的基于性能感知的模型裁剪方法在搜索阶段基于以上性能先验感知。
根据本发明的基于性能感知的模型裁剪方法的一些实施方式,通过硬件计算平台分别获取预设数量的第二候选裁剪模型的实际延时性能表现,从预设数量的第二候选裁剪模型中获取实际延时性能表现最高的裁剪模型进行裁剪还包括:
通过延时时间表示实际延时性能表现,延时时间越短表示实际延时性能表现越高。
在本发明的一些实施例中,性能表现包括实际latency性能表现、FLOPs。基于自动化channel搜索可产生不同精度下的多个候选模型,候选模型不仅仅以FLOPs为主要评估指标,而是结合其在TensorRT上的实际latency性能表现,以精度、FLOPs、latency为候选模型的最终评估指标。其中实际latency性能表现即实际延时性能表现,在一些实施例中,通过延时时间来表示其实际延时性能表现,如图3所示的实施例中,获取的第二候选裁剪模型中的延时时间分别为1.2ms、1.3ms…1.6ms等,其中最小的1.2ms即为本发明实施例中最佳模型对应的实际延时性能表现。
根据本发明的基于性能感知的模型裁剪方法的一些实施方式,根据性能表现,搜索并获取不同精度的若干第一候选裁剪模型还包括:
将通道设置的个数限制为32的整数倍进行搜索,并且对于神经网络较浅的层增大裁剪比率,较深的层减小裁剪比率进行裁剪。
在本发明的一些实施例中,AutoPruning裁剪模型自动化搜索,自动化裁剪采用性能先验感知裁剪,以TensorRT上的不同通道设置的实际性能表现为基本参考,裁剪channel的搜索限制为32整数倍,同时对于神经网络较浅的层增大其裁剪比率,较深的层减小其裁剪比率,基于先验感知裁剪channel的设置一方面可以保证性能最大化,另一方面可提升搜索效率。
本发明提出的基于性能感知的神经网络模型裁剪应用在计算机视觉领域如图像分类、目标检测等,该技术同样可应用在NLP(自然语言处理)领域模型的加速,针对NLP模型结构特点,通过先验探索其模型在软硬件平台上的性能表现,基于特定规则进行NLP模型压缩裁剪,降低模型复杂度,提升NLP模型在计算平台上的推理性能表现。
本发明实施例的另一方面,提出了一种基于性能感知的模型裁剪装置的实施例。该装置包括:
性能探索模块,性能探索模块配置为获取不同的通道设置在软件平台上的符合预设标准的性能表现;
第一候选模块,第一候选裁剪模块配置为根据性能表现,搜索并获取不同精度的若干第一候选裁剪模型;
第二候选模块,第二候选裁剪模块配置为根据FLOPs在若干第一候选裁剪模型中获取精度最高的预设数量的第二候选裁剪模型;
裁剪模块,裁剪模块配置为通过硬件计算平台分别获取预设数量的第二候选裁剪模型的实际latency性能表现,从预设数量的第二候选裁剪模型中获取实际latency性能表现最高的裁剪模型进行裁剪。
根据本发明的基于性能感知的模型裁剪装置的一些实施方式,性能探索模块还配置为:
基于神经网络模型各层通道设置的个数是否为32的整数倍来判断性能表现是否符合预设标准。
根据本发明的基于性能感知的模型裁剪装置的一些实施方式,性能探索模块还配置为:
响应于FLOPs相同,基于卷积层的通道设置的个数来判断性能表现是否符合预设标准。
基于上述目的,本发明实施例的另一方面,还提出了一种计算机设备,该计算机设备包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机程序,处理器执行程序时执行前述的基于性能感知的模型裁剪方法。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,其特征在于,计算机程序被处理器执行时执行前述的基于性能感知的模型裁剪方法。
同样地,本领域技术人员应当理解,以上针对根据本发明的基于性能感知的模型裁剪方法阐述的所有实施方式、特征和优势同样地适用于根据本发明的装置、计算机设备和介质。为了本公开的简洁起见,在此不再重复阐述。
需要特别指出的是,上述基于性能感知的模型裁剪方法、装置、设备和介质的各个实施例中的各个步骤均可以相互交叉、替换、增加、删减,因此,这些合理的排列组合变换之于基于性能感知的模型裁剪方法、装置、设备和介质也应当属于本发明的保护范围,并且不应将本发明的保护范围局限在实施例之上。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,基于性能感知的模型裁剪方法的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,根据本发明实施例公开的方法还可以被实现为由处理器执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被处理器执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

Claims (10)

1.一种基于性能感知的模型裁剪方法,其特征在于,所述方法包括:
获取不同的通道设置在软件平台上的符合预设标准的性能表现;
根据所述性能表现,搜索并获取不同精度的若干第一候选裁剪模型;
根据计算量在若干所述第一候选裁剪模型中获取精度最高的预设数量的第二候选裁剪模型;
通过硬件计算平台分别获取所述预设数量的第二候选裁剪模型的实际延时性能表现,从所述预设数量的第二候选裁剪模型中获取所述实际延时性能表现最高的裁剪模型进行裁剪。
2.根据权利要求1所述的基于性能感知的模型裁剪方法,其特征在于,所述获取不同的通道设置在软件平台上的符合预设标准的性能表现还包括:
基于神经网络模型各层所述通道设置的个数是否为32的整数倍来判断性能表现是否符合预设标准。
3.根据权利要求1所述的基于性能感知的模型裁剪方法,其特征在于,所述获取不同的通道设置在软件平台上的符合预设标准的性能表现还包括:
响应于所述计算量相同,基于卷积层的所述通道设置的个数来判断性能表现是否符合预设标准。
4.根据权利要求1所述的基于性能感知的模型裁剪方法,其特征在于,所述通过硬件计算平台分别获取所述预设数量的第二候选裁剪模型的实际延时性能表现,从所述预设数量的第二候选裁剪模型中获取所述实际延时性能表现最高的裁剪模型进行裁剪还包括:
通过延时时间表示所述实际延时性能表现,所述延时时间越短表示所述实际延时性能表现越高。
5.根据权利要求1所述的基于性能感知的模型裁剪方法,其特征在于,所述根据所述性能表现,搜索并获取不同精度的若干第一候选裁剪模型还包括:
将所述通道设置的个数限制为32的整数倍进行搜索,并且对于神经网络较浅的层增大裁剪比率,较深的层减小裁剪比率进行裁剪。
6.一种基于性能感知的模型裁剪装置,其特征在于,所述装置包括:
性能探索模块,所述性能探索模块配置为获取不同的通道设置在软件平台上的符合预设标准的性能表现;
第一候选模块,所述第一候选裁剪模块配置为根据所述性能表现,搜索并获取不同精度的若干第一候选裁剪模型;
第二候选模块,所述第二候选裁剪模块配置为根据FLOPs在若干所述第一候选裁剪模型中获取精度最高的预设数量的第二候选裁剪模型;
裁剪模块,所述裁剪模块配置为通过硬件计算平台分别获取所述预设数量的第二候选裁剪模型的实际延时性能表现,从所述预设数量的第二候选裁剪模型中获取所述实际延时性能表现最高的裁剪模型进行裁剪。
7.根据权利要求6所述的基于性能感知的模型裁剪装置,其特征在于,所述性能探索模块还配置为:
基于神经网络模型各层所述通道设置的个数是否为32的整数倍来判断性能表现是否符合预设标准。
8.根据权利要求6所述的基于性能感知的模型裁剪装置,其特征在于,所述性能探索模块还配置为:
响应于所述计算量相同,基于卷积层的所述通道设置的个数来判断性能表现是否符合预设标准。
9.一种计算机设备,其特征在于,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-5任意一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行权利要求1-5任意一项所述的方法。
CN202010306057.XA 2020-04-17 2020-04-17 一种基于性能感知的模型裁剪方法、装置、设备和介质 Active CN111488990B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010306057.XA CN111488990B (zh) 2020-04-17 2020-04-17 一种基于性能感知的模型裁剪方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010306057.XA CN111488990B (zh) 2020-04-17 2020-04-17 一种基于性能感知的模型裁剪方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
CN111488990A true CN111488990A (zh) 2020-08-04
CN111488990B CN111488990B (zh) 2022-11-29

Family

ID=71811111

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010306057.XA Active CN111488990B (zh) 2020-04-17 2020-04-17 一种基于性能感知的模型裁剪方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN111488990B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418393A (zh) * 2020-10-23 2021-02-26 联想(北京)有限公司 一种模型裁剪方法及设备
CN112950221A (zh) * 2021-03-26 2021-06-11 支付宝(杭州)信息技术有限公司 建立风控模型的方法和装置以及风险控制方法和装置
WO2022057468A1 (zh) * 2020-09-18 2022-03-24 苏州浪潮智能科技有限公司 一种深度学习模型推理加速的方法、系统、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107678560A (zh) * 2017-08-31 2018-02-09 科大讯飞股份有限公司 输入法的候选结果生成方法及装置、存储介质、电子设备
CN107944396A (zh) * 2017-11-27 2018-04-20 国网安徽省电力有限公司经济技术研究院 一种基于改进深度学习的刀闸状态识别方法
CN110895561A (zh) * 2019-11-13 2020-03-20 中国科学院自动化研究所 基于多模态知识感知的医疗问答检索方法、系统、装置
CN110908494A (zh) * 2018-09-14 2020-03-24 中兴通讯股份有限公司 待管理应用检测及控制方法、装置、终端及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107678560A (zh) * 2017-08-31 2018-02-09 科大讯飞股份有限公司 输入法的候选结果生成方法及装置、存储介质、电子设备
CN107944396A (zh) * 2017-11-27 2018-04-20 国网安徽省电力有限公司经济技术研究院 一种基于改进深度学习的刀闸状态识别方法
CN110908494A (zh) * 2018-09-14 2020-03-24 中兴通讯股份有限公司 待管理应用检测及控制方法、装置、终端及存储介质
CN110895561A (zh) * 2019-11-13 2020-03-20 中国科学院自动化研究所 基于多模态知识感知的医疗问答检索方法、系统、装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022057468A1 (zh) * 2020-09-18 2022-03-24 苏州浪潮智能科技有限公司 一种深度学习模型推理加速的方法、系统、设备及介质
CN112418393A (zh) * 2020-10-23 2021-02-26 联想(北京)有限公司 一种模型裁剪方法及设备
CN112950221A (zh) * 2021-03-26 2021-06-11 支付宝(杭州)信息技术有限公司 建立风控模型的方法和装置以及风险控制方法和装置

Also Published As

Publication number Publication date
CN111488990B (zh) 2022-11-29

Similar Documents

Publication Publication Date Title
CN109582793B (zh) 模型训练方法、客服系统及数据标注系统、可读存储介质
CN111488990A (zh) 一种基于性能感知的模型裁剪方法、装置、设备和介质
CN107783840B (zh) 一种分布式多层深度学习资源分配方法和装置
EP4152154A1 (en) Adaptive artificial neural network selection techniques
CN104538024A (zh) 语音合成方法、装置及设备
CN111079899A (zh) 神经网络模型压缩方法、系统、设备及介质
JP2023523029A (ja) 画像認識モデル生成方法、装置、コンピュータ機器及び記憶媒体
JPWO2019146189A1 (ja) ニューラルネットワークのランク最適化装置および最適化方法
CN115829024B (zh) 一种模型训练方法、装置、设备及存储介质
CN112686382A (zh) 一种卷积模型轻量化方法及系统
CN114511083A (zh) 一种模型的训练方法、装置、存储介质及电子装置
CN107292320B (zh) 系统及其指标优化方法及装置
CN106776543A (zh) 新词发现方法、装置、终端及服务器
CN117972038A (zh) 一种智能问答方法、装置及计算机可读介质
CN115759192A (zh) 一种神经网络加速方法、装置、设备、芯片及存储介质
CN117130595A (zh) 代码开发方法、装置、计算机设备和存储介质
CN112801271B (zh) 生成神经网络的方法、数据处理方法、智能行驶控制方法
CN110968835A (zh) 一种近似分位数计算方法及装置
CN111104951A (zh) 一种主动学习方法、装置及终端设备
CN117437394A (zh) 模型训练方法、目标检测方法及装置
CN112396100B (zh) 一种细粒度分类模型的优化方法、系统及相关装置
CN114510873A (zh) 基于大数据的石油测井预测方法以及预测装置
CN112200275A (zh) 人工神经网络的量化方法及装置
CN112905792A (zh) 基于非文本场景的文本聚类方法、装置、设备及存储介质
CN114692888A (zh) 系统参数处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant