CN111753878A - 一种网络模型部署方法、设备及介质 - Google Patents

一种网络模型部署方法、设备及介质 Download PDF

Info

Publication number
CN111753878A
CN111753878A CN202010432408.1A CN202010432408A CN111753878A CN 111753878 A CN111753878 A CN 111753878A CN 202010432408 A CN202010432408 A CN 202010432408A CN 111753878 A CN111753878 A CN 111753878A
Authority
CN
China
Prior art keywords
network model
student network
student
initial
meeting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010432408.1A
Other languages
English (en)
Inventor
冯落落
李锐
金长新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinan Inspur Hi Tech Investment and Development Co Ltd
Original Assignee
Jinan Inspur Hi Tech Investment and Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinan Inspur Hi Tech Investment and Development Co Ltd filed Critical Jinan Inspur Hi Tech Investment and Development Co Ltd
Priority to CN202010432408.1A priority Critical patent/CN111753878A/zh
Publication of CN111753878A publication Critical patent/CN111753878A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons

Abstract

本申请公开了一种网络模型部署方法、设备及介质,包括:建立初始的学生网络模型;获取预先训练的教师网络模型;根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式采用GAN网络架构;将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。本申请实施例通过知识蒸馏的方式训练学生网络,并将训练的学生网络进行量化操作,并可以将量化后的网络模型部署到预设系统中。

Description

一种网络模型部署方法、设备及介质
技术领域
本申请涉及计算机技术领域,尤其涉及一种网络模型部署方法、设备及介质。
背景技术
深度学习在过去几年,在许多计算机视觉领域发生了革命性的变化,包括图像分类、目标检测、人脸识别、图像分割等领域。这些算法通过大量数据训练完之后,然后利用强大的GPU才能进行推理,但是在一些嵌入式设备有一个很大的问题就是存储资源和计算资源有限,在将深度学习算法对应的网络模型部署到嵌入式设备时存在很大的问题。
发明内容
有鉴于此,本申请实施例提供了一种网络模型部署方法、设备及介质,用于解决现有技术中将深度学习算法对应的网络模型部署到嵌入式设备存在的问题。
本申请实施例采用下述技术方案:
本申请实施例提供一种网络模型部署方法,所述方法包括:
建立初始的学生网络模型;
获取预先训练的教师网络模型;
根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式采用GAN网络架构;
将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
进一步的,所述初始的学生网络模型包括多个残差模块、一个全局池化模块以及一个多个神经源的输出层。
进一步的,所述根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,具体包括:
固定所述初始的学生网络模型,并根据第一损失函数对所述GAN网络架构中的判别器进行训练;
将所述第一损失函数进行最大化操作,以使得所述判别器对学生网络模型的分布与老师网络模型的分布进行正确分类;
固定所述判别器,并根据预先建立的第二损失函数训练所述初始的学生网络模型,得出符合条件的学生网络模型。
进一步的,所述根据预先建立的第二损失函数训练所述初始的学生网络模型,得出符合条件的学生网络模型之前,所述方法还包括:
将所述第二损失函数进行最小化操作。
进一步的,所述最小化操作采用随机梯度下降的方式。
进一步的,所述将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中,具体包括:
将所述符合条件的学生网络模型存储为预设格式的学生网络模型,并根据OpenVINO对所述预设格式的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
进一步的,所述预设格式为pb格式。
进一步的,所述将所述符合条件的学生网络模型进行量化操作,具体包括:
将所述符合条件的学生网络模型中的每一层映射到预设阈值,并根据所述预设阈值及每一层权重中的取值,计算出每一层的缩放因子;
根据所述每一层的缩放因子,对所述符合条件的学生网络模型进行量化操作。
本申请实施例还提供一种网络模型部署设备,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
建立初始的学生网络模型;
获取预先训练的教师网络模型;
根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式采用GAN网络架构;
将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
本申请实施例还提供一种网络模型部署介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
建立初始的学生网络模型;
获取预先训练的教师网络模型;
根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式采用GAN网络架构;
将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
本申请实施例采用的上述至少一个技术方案能够达到以下有益效果:本申请实施例通过知识蒸馏的方式训练学生网络,并将训练的学生网络进行量化操作,并可以将量化后的网络模型部署到预设系统中。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本说明书实施例一提供的一种网络模型部署方法的流程示意图;
图2为本说明书实施例一提供的残差模块的具体结构示意图;
图3为本说明书实施例一提供的初始的学生网络模型的具体结构示意图;
图4为本说明书实施例一提供的搭建学生网络模型的过程流程示意图;
图5为本说明书实施例二提出的一种网络模型部署方法的流程示意图;
图6为本说明书实施例二提出的量化模型的结构示意图;
图7为本说明书实施例二提出的知识蒸馏的原理示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1为本说明书实施例一提供的一种网络模型部署方法的流程示意图,本说明书实施例可以由网络模型部署系统执行下述步骤,具体包括:
步骤S101,网络模型部署系统建立初始的学生网络模型。
在本说明书实施例的步骤S101中,初始的学生网络模型可以包括多个残差模块、一个全局池化模块以及一个多个神经源的输出层,残差模块的具体结构可以参见图2,初始的学生网络模型的具体结构可以参见图3。其中,初始的学生网络模型中使用3个残差模块Residual Module堆叠在一起,为了防止过拟合,在残差模块中加入了Dropout层,并在残差模块的后面加入了一个Avg Global Pooling和一个1000个神经源的输出层。
步骤S102,网络模型部署系统获取预先训练的教师网络模型。
在本说明书实施例的步骤S102中,教师网络模型可以是使用ImageNet数据集训练的ResNet152网络模型。
步骤S103,网络模型部署系统根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式可以采用GAN网络架构。
在本说明书实施例的步骤S103中,GAN网络框架主要是让教师网络模型(Teacher)输出的概率分布和学生网络模型(Student)输出的概率分布尽可能的相似。参见图4,示出搭建学生网络模型的过程,图中Discriminator(鉴别器)可以使用5层的MLP网络与一个2个神经元的输出层,用于判断输入的概率分布是否是真实分布,也就是判断是教师网络模型输出还是学生网络模型输出。
需要说明的是,知识蒸馏是通过引入与教师网络(teacher network:复杂、但推理性能优越)相关的软目标(soft-target)作为total loss的一部分,以诱导学生网络(student network:精简、低复杂度)的训练,实现的知识迁移(knowledge transfer)。
步骤S104,网络模型部署系统将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
本申请实施例通过知识蒸馏的方式训练学生网络,并将训练的学生网络进行量化操作,并可以将量化后的网络模型部署到预设系统中。
与本说明书实施例一相对应的是,图5为本说明书实施例二提出的一种网络模型部署方法的流程示意图,本说明书实施例可以由网络模型部署系统执行下述步骤,具体包括:
步骤S201,网络模型部署系统建立初始的学生网络模型。
在本说明书实施例的步骤S201中,初始的学生网络模型可以包括多个残差模块、一个全局池化模块以及一个多个神经源的输出层,残差模块的具体结构可以参见图2,初始的学生网络模型的具体结构可以参见图3。其中,初始的学生网络模型中使用3个残差模块Residual Module堆叠在一起,为了防止过拟合,在残差模块中加入了Dropout层。并在残差模块的后面加入了一个Avg Global Pooling和一个1000个神经源的输出层。
步骤S202,网络模型部署系统获取预先训练的教师网络模型。
在本说明书实施例的步骤S202中,教师网络模型可以是使用ImageNet数据集训练的ResNet152网络模型。
步骤S203,网络模型部署系统根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式可以采用GAN网络架构。
在本说明书实施例的步骤S203中,GAN网络框架主要是让教师网络模型(Teacher)输出的概率分布和学生网络模型(Student)输出的概率分布尽可能的相似。参见图4,示出搭建学生网络模型的过程,图中Discriminator(鉴别器)可以使用5层的MLP网络与一个2个神经元的输出层,用于判断输入的概率分布是否是真实分布,也就是判断是教师网络模型输出还是学生网络模型输出。
网络模型部署系统根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,具体包括:
网络模型部署系统固定所述初始的学生网络模型,并根据第一损失函数对所述GAN网络架构中的判别器进行训练,第一损失函数可以为:
Figure BDA0002501054250000061
Figure BDA0002501054250000062
其中,D表示判别网络,F表示生成器网络,LA(D,F)表示GAN网络的损失函数,N表示样本个数,Real和Fake分别表示正样本和负样本。
网络模型部署系统将第一损失函数进行最大化操作,以使得所述判别器对学生网络模型的分布与老师网络模型的分布进行正确分类;
网络模型部署系统固定所述判别器,并根据预先建立的第二损失函数训练所述初始的学生网络模型,得出符合条件的学生网络模型,第二损失函数可以为:Lstudent=Ls+LA(D,F),
Figure BDA0002501054250000071
Figure BDA0002501054250000072
其中,Ls为交叉熵损失,LA(D,F)表示GAN网络的损失函数,H交叉熵函数,li可以表示xi样本所对应的one hot标签,M1表示第一个样本通过学生网络模型输出的概率分布,M1(F(xi))可以表示学生网络模型输出的1000维的概率分布。
进一步的,所述根据预先建立的第二损失函数训练所述初始的学生网络模型,得出符合条件的学生网络模型之前,所述方法还包括:
将所述第二损失函数进行最小化操作。其中,最小化操作与最大化操作皆可以采用随机梯度下降的方式(SGD)。
步骤S204,网络模型部署系统将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
在本说明书实施例的步骤S204中,本步骤可以具体包括:
将所述符合条件的学生网络模型存储为预设格式的学生网络模型,并根据OpenVINO对所述预设格式的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。其中,预设格式可以为pb格式。
对预设格式的学生网络模型进行量化操作后,需要将量化后的文件存储为xml和bin格式的文件,最后部署在预设系统中,其中,预设系统可以为UP squared。在UP squared上可以插入神经计算棒NCS2进行测试,每秒能检测30帧,并且准确率够达到96%以上。
进一步的,所述将所述符合条件的学生网络模型进行量化操作,具体包括:
可以根据OpenVINO将所述符合条件的学生网络模型中的每一层映射到预设阈值,并根据所述预设阈值及每一层权重中的取值,计算出每一层的缩放因子;
根据所述每一层的缩放因子,对所述符合条件的学生网络模型进行量化操作。其中,OpenVINO是英特尔推出的一款全面的工具套件,用于快速部署应用和解决方案,支持计算机视觉的CNN网络结构超过150余种。
参见图6,示出了量化模型的结构示意图,预设阈值可以为[-127,127],缩放因子scale计算公式:scale=|max|/127,其中,max为每层权重中绝对值的最大值。并根据下述公式(1)与公式(2)实现Float32类型与int8类型之间的量化:
xint=round(xfloat/scale) (1);
xfloat=xint*scale (2);
其中,xint为int8类型值,xfloat为Float32类型值,round是取整操作。
需要说明的,参见图7示出了知识蒸馏的原理示意图,知识蒸馏是通过训练一个小的神经网络进行加速,其实简化来说,知识蒸馏就是通过借助训练好的大神经网络模型,如图7中的Teacher Network,指导训练小神经网络模型,如图7中的Student Network,这样就实现了把大网络中的知识蒸馏到小网络中。如图7所示,可以先利用有标签的数据集ImageNet训练一个ResNet152模型。然后利用训练好的模型输出指导训练设计的小模型(Student Network)。
本申请实施例通过知识蒸馏的方式训练学生网络,并将训练的学生网络进行量化操作,并可以将量化后的网络模型部署到预设系统中。
本申请实施例还提供一种网络模型部署设备,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
建立初始的学生网络模型;
获取预先训练的教师网络模型;
根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式采用GAN网络架构;
将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
本申请实施例还提供一种网络模型部署介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
建立初始的学生网络模型;
获取预先训练的教师网络模型;
根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式采用GAN网络架构;
将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带式磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种网络模型部署方法,其特征在于,所述方法包括:
建立初始的学生网络模型;
获取预先训练的教师网络模型;
根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式采用GAN网络架构;
将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
2.根据权利要求1所述的网络模型部署方法,其特征在于,所述初始的学生网络模型包括多个残差模块、一个全局池化模块以及一个多个神经源的输出层。
3.根据权利要求1所述的网络模型部署方法,其特征在于,所述根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,具体包括:
固定所述初始的学生网络模型,并根据第一损失函数对所述GAN网络架构中的判别器进行训练;
将所述第一损失函数进行最大化操作,以使得所述判别器对学生网络模型的分布与老师网络模型的分布进行正确分类;
固定所述判别器,并根据预先建立的第二损失函数训练所述初始的学生网络模型,得出符合条件的学生网络模型。
4.根据权利要求3所述的网络模型部署方法,其特征在于,所述根据预先建立的第二损失函数训练所述初始的学生网络模型,得出符合条件的学生网络模型之前,所述方法还包括:
将所述第二损失函数进行最小化操作。
5.根据权利要求4所述的网络模型部署方法,其特征在于,所述最小化操作采用随机梯度下降的方式。
6.根据权利要求1所述的网络模型部署方法,其特征在于,所述将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中,具体包括:
将所述符合条件的学生网络模型存储为预设格式的学生网络模型,并根据OpenVINO对所述预设格式的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
7.根据权利要求6所述的网络模型部署方法,其特征在于,所述预设格式为pb格式。
8.根据权利要求1所述的网络模型部署方法,其特征在于,所述将所述符合条件的学生网络模型进行量化操作,具体包括:
将所述符合条件的学生网络模型中的每一层映射到预设阈值,并根据所述预设阈值及每一层权重中的取值,计算出每一层的缩放因子;
根据所述每一层的缩放因子,对所述符合条件的学生网络模型进行量化操作。
9.一种网络模型部署设备,其特征在于,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
建立初始的学生网络模型;
获取预先训练的教师网络模型;
根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式采用GAN网络架构;
将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
10.一种网络模型部署介质,存储有计算机可执行指令,其特征在于,所述计算机可执行指令设置为:
建立初始的学生网络模型;
获取预先训练的教师网络模型;
根据知识蒸馏的方式与所述教师网络模型训练所述初始的学生网络模型,得出符合条件的学生网络模型,其中,所述知识蒸馏的方式采用GAN网络架构;
将所述符合条件的学生网络模型进行量化操作,并将量化后的所述学生网络模型部署在预设系统中。
CN202010432408.1A 2020-05-20 2020-05-20 一种网络模型部署方法、设备及介质 Pending CN111753878A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010432408.1A CN111753878A (zh) 2020-05-20 2020-05-20 一种网络模型部署方法、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010432408.1A CN111753878A (zh) 2020-05-20 2020-05-20 一种网络模型部署方法、设备及介质

Publications (1)

Publication Number Publication Date
CN111753878A true CN111753878A (zh) 2020-10-09

Family

ID=72673701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010432408.1A Pending CN111753878A (zh) 2020-05-20 2020-05-20 一种网络模型部署方法、设备及介质

Country Status (1)

Country Link
CN (1) CN111753878A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288032A (zh) * 2020-11-18 2021-01-29 上海依图网络科技有限公司 一种基于生成对抗网络的量化模型训练的方法及装置
CN112465111A (zh) * 2020-11-17 2021-03-09 大连理工大学 一种基于知识蒸馏和对抗训练的三维体素图像分割方法
CN113240119A (zh) * 2021-04-08 2021-08-10 南京大学 一种用于游戏ai策略解释的跨模型蒸馏装置
CN113724695A (zh) * 2021-08-30 2021-11-30 平安国际智慧城市科技股份有限公司 基于人工智能的电子病历生成方法、装置、设备及介质
WO2023160290A1 (zh) * 2022-02-23 2023-08-31 京东方科技集团股份有限公司 神经网络推理加速方法、目标检测方法、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325508A (zh) * 2017-07-31 2019-02-12 阿里巴巴集团控股有限公司 知识表示、机器学习模型训练、预测方法、装置以及电子设备
CN109711544A (zh) * 2018-12-04 2019-05-03 北京市商汤科技开发有限公司 模型压缩的方法、装置、电子设备及计算机存储介质
CN110135562A (zh) * 2019-04-30 2019-08-16 中国科学院自动化研究所 基于特征空间变化的蒸馏学习方法、系统、装置
CN110674880A (zh) * 2019-09-27 2020-01-10 北京迈格威科技有限公司 用于知识蒸馏的网络训练方法、装置、介质与电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325508A (zh) * 2017-07-31 2019-02-12 阿里巴巴集团控股有限公司 知识表示、机器学习模型训练、预测方法、装置以及电子设备
CN109711544A (zh) * 2018-12-04 2019-05-03 北京市商汤科技开发有限公司 模型压缩的方法、装置、电子设备及计算机存储介质
CN110135562A (zh) * 2019-04-30 2019-08-16 中国科学院自动化研究所 基于特征空间变化的蒸馏学习方法、系统、装置
CN110674880A (zh) * 2019-09-27 2020-01-10 北京迈格威科技有限公司 用于知识蒸馏的网络训练方法、装置、介质与电子设备

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112465111A (zh) * 2020-11-17 2021-03-09 大连理工大学 一种基于知识蒸馏和对抗训练的三维体素图像分割方法
CN112288032A (zh) * 2020-11-18 2021-01-29 上海依图网络科技有限公司 一种基于生成对抗网络的量化模型训练的方法及装置
CN112288032B (zh) * 2020-11-18 2022-01-14 上海依图网络科技有限公司 一种基于生成对抗网络的量化模型训练的方法及装置
CN113240119A (zh) * 2021-04-08 2021-08-10 南京大学 一种用于游戏ai策略解释的跨模型蒸馏装置
CN113240119B (zh) * 2021-04-08 2024-03-19 南京大学 一种用于游戏ai策略解释的跨模型蒸馏装置
CN113724695A (zh) * 2021-08-30 2021-11-30 平安国际智慧城市科技股份有限公司 基于人工智能的电子病历生成方法、装置、设备及介质
CN113724695B (zh) * 2021-08-30 2023-08-01 深圳平安智慧医健科技有限公司 基于人工智能的电子病历生成方法、装置、设备及介质
WO2023160290A1 (zh) * 2022-02-23 2023-08-31 京东方科技集团股份有限公司 神经网络推理加速方法、目标检测方法、设备及存储介质

Similar Documents

Publication Publication Date Title
CN111753878A (zh) 一种网络模型部署方法、设备及介质
CN110348462B (zh) 一种图像特征确定、视觉问答方法、装置、设备及介质
CN113837370B (zh) 用于训练基于对比学习的模型的方法和装置
CN111652351A (zh) 一种神经网络模型的部署方法、设备及介质
CN112308113A (zh) 一种基于半监督的目标识别方法、设备及介质
CN114332873A (zh) 一种识别模型的训练方法及装置
CN116205290A (zh) 一种基于中间特征知识融合的知识蒸馏方法和装置
CN111652286A (zh) 一种基于图嵌入的物体识别方法、设备及介质
CN111507726B (zh) 一种报文生成方法、装置及设备
CN111507250B (zh) 图像识别方法、设备及存储介质
CN110188798B (zh) 一种对象分类方法及模型训练方法和装置
CN112527959A (zh) 基于无池化卷积嵌入和注意分布神经网络的新闻分类方法
CN116308738A (zh) 一种模型训练的方法、业务风控的方法及装置
WO2021233389A1 (zh) 增强深度学习模型鲁棒性的方法及装置
CN114912513A (zh) 一种模型训练的方法、识别信息的方法及装置
CN110321433B (zh) 确定文本类别的方法及装置
CN111523539A (zh) 一种文字检测方法及装置
CN112287130A (zh) 一种图形题目的搜索方法、装置以及设备
CN113033212B (zh) 文本数据处理方法及装置
CN114693996B (zh) 证件真实性不确定度度量方法及装置、设备、存储介质
CN115423485B (zh) 数据处理方法、装置及设备
CN114819149B (zh) 基于变换神经网络的数据处理方法、装置和介质
CN111177385B (zh) 一种多层次分类模型训练方法、多层次分类方法和装置
CN114997277A (zh) 一种模型训练的方法、任务执行的方法及装置
CN117011624A (zh) 目标检测模型的训练方法、目标检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201009