CN111291882A - 一种模型转换的方法、装置、设备和计算机存储介质 - Google Patents
一种模型转换的方法、装置、设备和计算机存储介质 Download PDFInfo
- Publication number
- CN111291882A CN111291882A CN201811487362.2A CN201811487362A CN111291882A CN 111291882 A CN111291882 A CN 111291882A CN 201811487362 A CN201811487362 A CN 201811487362A CN 111291882 A CN111291882 A CN 111291882A
- Authority
- CN
- China
- Prior art keywords
- model
- neural network
- conversion
- network layer
- converted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明提供了一种模型转换的方法、装置、设备和计算机存储介质,所述方法包括:获取待转换模型;确定所述待转换模型中包含的神经网络层,并获取对应各神经网络层的转换结果;对所述对应各神经网络层的转换结果进行组合,得到对应所述待转换模型的转换结果。本发明能够降低模型转换的成本,提升模型转换的效率。
Description
【技术领域】
本发明涉及互联网技术领域,尤其涉及一种模型转换的方法、装置、设备和计算机存储介质。
【背景技术】
在现有技术中,绝大多数机器学习模型或深度学习模型都是在云端服务器中训练和部署的。若是要将部署在云端服务器中的学习模型转换为其他类型的模型,例如将它们转换为能够适用于移动设备的模型,一般会采用两种方式:通过交叉编译对模型进行整体转换或者基于训练数据重新训练模型。
其中,通过交叉编译整体转换模型的方式会存在以下问题:开发者需要具备专业的交叉编译经验,并需要面对各种报错并进行代码修改,因此转换成本较高;若所要转换得到的模型与待转换模型之间的一致性不高,还会导致转换失败,因此转换效率较低。而基于训练数据重新训练模型的方式会存在以下问题:开发者需要废弃已经经过反复调优和业务验证的云端服务器模型,重新在新的框架上训练得到模型,因此需要耗费大量的时间,而且重新训练得到的模型的性能与云端服务器中模型的性能相比不够良好。
【发明内容】
有鉴于此,本发明提供了一种模型转换的方法、装置、设备和计算机存储介质,用于降低模型转换的成本,提升模型转换的效率。
本发明为解决技术问题所采用的技术方案为提供一种模型转换的方法,所述方法包括:获取待转换模型;确定所述待转换模型中包含的神经网络层,并获取对应各神经网络层的转换结果;对所述对应各神经网络层的转换结果进行组合,得到对应所述待转换模型的转换结果。
根据本发明一优选实施例,所述待转换模型为云端服务器中已经训练好的机器学习模型或深度学习模型。
根据本发明一优选实施例,所述获取对应各神经网络层的转换结果包括:确定目标模型;根据预设的目标模型与转换方式之间的对应关系,确定与所述目标模型对应的转换方式;利用所确定的转换方式对各神经网络层进行转换,得到对应各神经网络层的转换结果。
根据本发明一优选实施例,所述获取对应各神经网络层的转换结果包括:获取各神经网络层中包含的操作算子;基于所获取的操作算子得到对应各神经网络层的转换结果。
根据本发明一优选实施例,所述基于所获取的操作算子得到对应各神经网络层的转换结果包括:按照各神经网络层中操作算子的运算顺序,依次拼接各神经网络层中包含的操作算子;将操作算子的拼接结果作为对应各神经网络层的转换结果。
根据本发明一优选实施例,所述基于所获取的操作算子得到对应各神经网络层的转换结果包括:对各神经网络层中包含的操作算子进行转换,得到对应各操作算子的转换结果;对各操作算子的转换结果进行拼接,得到对应各神经网络层的转换结果。
根据本发明一优选实施例,在得到对应所述待转换模型的转换结果之后,还包括:获取用户输入的设备属性信息;根据所获取的设备属性信息确定优化参数;根据所获取的优化参数,对所述对应待转换模型的转换结果进行优化以得到优化结果。
根据本发明一优选实施例,在得到对应所述待转换模型的转换结果之后,还包括:将所述对应待转换模型的转换结果发送并保存在云端服务器中。
本发明为解决技术问题所采用的技术方案为提供一种模型转换的装置,所述装置包括:获取单元,用于获取待转换模型;转换单元,用于确定所述待转换模型中包含的神经网络层,并获取对应各神经网络层的转换结果;处理单元,用于对所述对应各神经网络层的转换结果进行组合,得到对应所述待转换模型的转换结果。
根据本发明一优选实施例,所述待转换模型为云端服务器中已经训练好的机器学习模型或深度学习模型。
根据本发明一优选实施例,所述转换单元在获取对应各神经网络层的转换结果时,具体执行:确定目标模型;根据预设的目标模型与转换方式之间的对应关系,确定与所述目标模型对应的转换方式;利用所确定的转换方式对各神经网络层进行转换,得到对应各神经网络层的转换结果。
根据本发明一优选实施例,所述转换单元在获取对应各神经网络层的转换结果时,具体执行:获取各神经网络层中包含的操作算子;基于所获取的操作算子得到对应各神经网络层的转换结果。
根据本发明一优选实施例,所述转换单元在基于所获取的操作算子得到对应各神经网络层的转换结果时,具体执行:按照各神经网络层中操作算子的运算顺序,依次拼接各神经网络层中包含的操作算子;将操作算子的拼接结果作为对应各神经网络层的转换结果。
根据本发明一优选实施例,所述转换单元在基于所获取的操作算子得到对应各神经网络层的转换结果时,具体执行:对各神经网络层中包含的操作算子进行转换,得到对应各操作算子的转换结果;对各操作算子的转换结果进行拼接,得到对应各神经网络层的转换结果。
根据本发明一优选实施例,所述处理单元在得到对应所述待转换模型的转换结果之后,还执行:获取用户输入的设备属性信息;根据所获取的设备属性信息确定优化参数;根据所获取的优化参数,对所述对应待转换模型的转换结果进行优化以得到优化结果。
根据本发明一优选实施例,所述处理单元在得到对应所述待转换模型的转换结果之后,还执行:将所述对应待转换模型的转换结果发送并保存在云端服务器中。
由以上技术方案可以看出,本发明以待转换模型中的神经网络层为转换粒度对待转换模型进行转换,区别于现有技术中使用模型之间整体转换或者重选训练得到模型的方式,能够实现降低转换成本、提升转换效率的目的,并能够保持对应待转换模型的转换结果的良好性能。
【附图说明】
图1为本发明一实施例提供的一种模型转换的方法流程图;
图2为本发明一实施例提供的一种模型转换的装置结构图;
图3为本发明一实施例提供的计算机系统/服务器的框图。
【具体实施方式】
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
图1为本发明一实施例提供的一种模型转换的方法流程图,如图1中所示,所述方法包括:
在101中,获取待转换模型。
在本步骤中,获取待转换模型,即获取要进行转换的模型。其中,待转换模型可以为云端服务器中已经训练好的机器学习模型或深度学习模型,例如云端服务器中能够实现图像识别功能的图像识别模型;待转换模型还可以为已经训练好的适于云端服务器的机器学习模型或深度学习模型。本发明中所涉及到的待转换模型为基于神经网络的机器学习模型或深度学习模型。
具体地,本步骤在获取待转换模型时,可以将用户从云端服务器中所选择的模型确定为待转换模型;也可以将从云端服务器中随机选取的模型确定为待转换模型;还可以将用户直接输入的模型确定为待转换模型。
在102中,确定所述待转换模型中包含的神经网络层,并获取对应各神经网络层的转换结果。
在本步骤中,首先对步骤101所获取的待转换模型进行解析,以确定该待转换模型中包含的神经网络层,然后对待转换模型中的各神经网络层进行转换,从而获取对应各神经网络层的转换结果。因此,本步骤以神经网络层为转换粒度完成对待转换模型的转换。
具体地,本步骤在获取对应各神经网络层的转换结果时,可以采用以下方式:确定目标模型,即确定待转换模型将要转换成的模型;根据预设的目标模型与转换方式之间的对应关系,确定与目标模型对应的转换方式;利用所确定的转换方式对各神经网络层进行转换,得到对应各神经网络层的转换结果。也就是说,本步骤可以将待转换模型转换为目标模型,即待转换模型中的各神经网络层转换为适应目标模型中相应神经网络层的转换结果。本发明中所涉及到的目标模型为基于神经网络的机器学习模型或深度学习模型。
可以理解的是,在确定目标模型时,可以将用户输入的模型确定为目标模型;也可以根据预设的模型与模型之间的对应关系,将对应关系中与待转换模型对应的模型确定为目标模型。
由于神经网络层是机器学习模型或深度学习模型的基本构成,因此本发明基于神经网络层的转换粒度对待转换模型进行转换,区别于现有技术所使用通过模型之间整体替换的转换方法,因此无需再关注待转换模型是否与目标模型匹配,从而进一步提升模型转换的成功率。
另外,本步骤在获取对应各神经网络层的转换结果时,还可以采用以下方式:获取各神经网络层中包含的操作算子,其中操作算子为神经网络层在进行向量运算时所使用的运算符号、函数等,例如神经网络层中用于向量求和的加号、用于向量卷积的卷积函数等;基于所获取操作算子对各神经网络层进行转换,得到对应各神经网络层的转换结果。也就是说,本步骤基于各神经网络中包含的操作算子,可以将待转换模型中的各神经网络层转换为对应各神经网络层的运算流程的格式。
具体地,本步骤在基于所获取操作算子对各神经网络层进行转换以得到对应各神经网络层的转换结果时,可以采用以下方式:按照各神经网络层中操作算子的运算顺序,依次拼接各神经网络层中包含的操作算子;将操作算子的拼接结果作为对应各神经网络层的转换结果。
另外,本步骤在基于所获取操作算子对各神经网络层进行转换以得到对应各神经网络层的转换结果时,还可以采用以下方式:对各神经网络层中包含的操作算子进行转换,得到对应各操作算子的转换结果,例如说将相邻的操作算子进行组合、合并相邻的操作算子中相同的操作算子等;对各操作算子的转换结果进行拼接,得到对应各神经网络层的转换结果。
因此,本发明在基于神经网络层的转换粒度对待转换模型进行转换时,能够进一步根据神经网络中所包含的操作算子实现待转换模型的转换。这是因为各神经网络层都是基于其所包含的操作算子来完成该层神经网络的计算,因此根据所获取的操作算子对各神经网络层进行转换,除了能够提升模型转换的成功率之外,还能够精简所得到的转换结果。
在103中,对所述对应各神经网络层的转换结果进行组合,得到对应所述待转换模型的转换结果。
在本步骤中,对步骤102中所获取的对应各神经网络层的转换结果进行组合,从而得到对应待转换模型的转换结果。可以理解的是,本步骤所得到的对应待转换模型的转换结果能够实现与待转换模型同样的功能,即若待转换模型为能够实现图像识别功能的图像识别模型,则对应该待转换模型的转换结果同样能够实现图像识别的功能。
其中,在对对应各神经网络层的转换结果进行组合时,可以按照待转换模型中各神经网络层的先后顺序,依次组合各神经网络层的转换结果,从而得到对应待转换模型的转换结果。
具体地,在得到对应待转换模型的转换结果之后,本步骤还可以包括以下内容:获取用户输入的设备属性信息,例如设备型号、设备种类等;根据所获取的设备属性信息确定优化参数;根据所获取的优化参数对对应待转换模型的转换结果进行优化,从而使得优化结果能够运行于用户输入的设备属性信息所对应的设备中。
也就是说,本步骤在获取待转换模型的转换结果后,还能够将其进一步转换为适用于与用户输入的设备属性信息对应的设备,优选地为移动设备。因此,本步骤还能够实现将运行于云端服务器中的模型转换为运行于移动设备中的模型的目的。
其中,在根据所获取的设备属性信息确定优化参数时,可以通过预先获取的设备属性信息与优化参数之间的对应关系,从而获取与用户输入的设备属性信息对应的优化参数;也可以根据设备属性信息进行搜索,以获取与设备属性信息对应的优化参数。本发明对此不进行限定。
另外,在得到对应待转换模型的转换结果之后,本步骤还可以包括以下内容:将对应待转换模型的转换结果发送并保存在云端服务器中,从而在用户发起对该待转换模型的调用请求时,云端服务器便可以将对应该待转换模型的转换结果提供给用户。
图2为本发明一实施例提供的一种模型转换的装置结构图,如图2中所示,所述装置包括:获取单元21、转换单元22以及处理单元23。
获取单元21,用于获取待转换模型。
获取单元21获取待转换模型,即获取要进行转换的模型。其中,待转换模型可以为云端服务器中已经训练好的机器学习模型或深度学习模型,例如云端服务器中能够实现图像识别功能的图像识别模型;待转换模型还可以为已经训练好的适于云端服务器的机器学习模型或深度学习模型。
具体地,获取单元21在获取待转换模型时,可以将用户从云端服务器中所选择的模型确定为待转换模型;也可以将从云端服务器中随机选取的模型确定为待转换模型;还可以将用户直接输入的模型确定为待转换模型。
转换单元22,用于确定所述待转换模型中包含的神经网络层,并获取对应各神经网络层的转换结果。
转换单元22首先对获取单元21所获取的待转换模型进行解析,以确定该待转换模型中包含的神经网络层,然后对待转换模型中的各神经网络层进行转换,从而获取对应各神经网络层的转换结果。因此,转换单元22以神经网络层为转换粒度完成对待转换模型的转换。
具体地,转换单元22在获取对应各神经网络层的转换结果时,可以采用以下方式:确定目标模型,即确定待转换模型将要转换成的模型;根据预设的目标模型与转换方式之间的对应关系,确定与目标模型对应的转换方式;利用所确定的转换方式对各神经网络层进行转换,得到对应各神经网络层的转换结果。
也就是说,转换单元22可以将待转换模型转换为目标模型,即待转换模型中的各神经网络层转换为适应目标模型中相应神经网络层的转换结果。
可以理解的是,转换单元22在确定目标模型时,可以将用户输入的模型确定为目标模型;也可以根据预设的模型与模型之间的对应关系,将对应关系中与待转换模型对应的模型确定为目标模型。
另外,转换单元22在获取对应各神经网络层的转换结果时,还可以采用以下方式:获取各神经网络层中包含的操作算子,其中操作算子为神经网络层在进行向量运算时所使用的运算符号、函数等,例如神经网络层中用于向量求和的加号、用于向量卷积的卷积函数等;基于所获取操作算子对各神经网络层进行转换,得到对应各神经网络层的转换结果。也就是说,转换单元22基于各神经网络中包含的操作算子,可以将待转换模型中的各神经网络层转换为对应各神经网络层的运算流程的格式。
具体地,转换单元22在基于所获取操作算子对各神经网络层进行转换以得到对应各神经网络层的转换结果时,可以采用以下方式:按照各神经网络层中操作算子的运算顺序,依次拼接各神经网络层中包含的操作算子;将操作算子的拼接结果作为对应各神经网络层的转换结果。
另外,转换单元22在基于所获取操作算子对各神经网络层进行转换以得到对应各神经网络层的转换结果时,还可以采用以下方式:对各神经网络层中包含的操作算子进行转换,得到对应各操作算子的转换结果,例如说将相邻的操作算子进行组合、合并相邻的操作算子中相同的操作算子等;对各操作算子的转换结果进行拼接,得到对应各神经网络层的转换结果。
处理单元23,对所述对应各神经网络层的转换结果进行组合,得到对应所述待转换模型的转换结果。
处理单元23对转换单元22中所获取的对应各神经网络层的转换结果进行组合,从而得到对应待转换模型的转换结果。可以理解的是,处理单元23所得到的对应待转换模型的转换结果能够实现与待转换模型同样的功能,即若待转换模型为能够实现图像识别功能的图像识别模型,则对应该待转换模型的转换结果同样能够实现图像识别的功能。
其中,处理单元23在对对应各神经网络层的转换结果进行组合时,可以按照待转换模型中各神经网络层的先后顺序,依次组合各神经网络层的转换结果,从而得到对应待转换模型的转换结果。
具体地,在得到对应待转换模型的转换结果之后,处理单元23还可以执行以下操作:获取用户输入的设备属性信息,例如设备型号、设备种类等;根据所获取的设备属性信息确定优化参数;根据所获取的优化参数对对应待转换模型的转换结果进行优化,从而使得优化结果能够运行于用户输入的设备属性信息所对应的设备中。
其中,在根据所获取的设备属性信息确定优化参数时,处理单元23可以通过预先获取的设备属性信息与优化参数之间的对应关系,从而获取与用户输入的设备属性信息对应的优化参数;也可以根据设备属性信息进行搜索,以获取与设备属性信息对应的优化参数。本发明对此不进行限定。
另外,在得到对应待转换模型的转换结果之后,处理单元23还可以执行以下操作:将对应待转换模型的转换结果发送并保存在云端服务器中,从而在用户发起对该待转换模型的调用请求时,云端服务器便可以将对应该待转换模型的转换结果提供给用户。
图3示出了适于用来实现本发明实施方式的示例性计算机系统/服务器012的框图。图3显示的计算机系统/服务器012仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图3所示,计算机系统/服务器012以通用计算设备的形式表现。计算机系统/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理单元016,系统存储器028,连接不同系统组件(包括系统存储器028和处理单元016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器012典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器028可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机系统/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统034可以用于读写不可移动的、非易失性磁介质(图3未显示,通常称为“硬盘驱动器”)。尽管图3中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机系统/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机系统/服务器012交互的设备通信,和/或与使得该计算机系统/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机系统/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器020通过总线018与计算机系统/服务器012的其它模块通信。应当明白,尽管图3中未示出,可以结合计算机系统/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元016通过运行存储在系统存储器028中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的方法流程。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。例如,被上述一个或多个处理器执行本发明实施例所提供的方法流程。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
利用本发明所提供的技术方案,以待转换模型中的神经网络层为转换粒度对待转换模型进行转换,区别于现有技术中使用模型之间整体转换或者重选训练得到模型的方式,能够实现降低转换成本、提升转换效率的目的,并能够保持对应待转换模型的转换结果的良好性能。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (18)
1.一种模型转换的方法,其特征在于,所述方法包括:
获取待转换模型;
确定所述待转换模型中包含的神经网络层,并获取对应各神经网络层的转换结果;
对所述对应各神经网络层的转换结果进行组合,得到对应所述待转换模型的转换结果。
2.根据权利要求1所述的方法,其特征在于,所述待转换模型为云端服务器中已经训练好的机器学习模型或深度学习模型。
3.根据权利要求1所述的方法,其特征在于,所述获取对应各神经网络层的转换结果包括:
确定目标模型;
根据预设的目标模型与转换方式之间的对应关系,确定与所述目标模型对应的转换方式;
利用所确定的转换方式对各神经网络层进行转换,得到对应各神经网络层的转换结果。
4.根据权利要求1所述的方法,其特征在于,所述获取对应各神经网络层的转换结果包括:
获取各神经网络层中包含的操作算子;
基于所获取的操作算子得到对应各神经网络层的转换结果。
5.根据权利要求4所述的方法,其特征在于,所述基于所获取的操作算子得到对应各神经网络层的转换结果包括:
按照各神经网络层中操作算子的运算顺序,依次拼接各神经网络层中包含的操作算子;
将操作算子的拼接结果作为对应各神经网络层的转换结果。
6.根据权利要求4所述的方法,其特征在于,所述基于所获取的操作算子得到对应各神经网络层的转换结果包括:
对各神经网络层中包含的操作算子进行转换,得到对应各操作算子的转换结果;
对各操作算子的转换结果进行拼接,得到对应各神经网络层的转换结果。
7.根据权利要求1所述的方法,其特征在于,在得到对应所述待转换模型的转换结果之后,还包括:
获取用户输入的设备属性信息;
根据所获取的设备属性信息确定优化参数;
根据所获取的优化参数,对所述对应待转换模型的转换结果进行优化以得到优化结果。
8.根据权利要求1所述的方法,其特征在于,在得到对应所述待转换模型的转换结果之后,还包括:
将所述对应待转换模型的转换结果发送并保存在云端服务器中。
9.一种模型转换的装置,其特征在于,所述装置包括:
获取单元,用于获取待转换模型;
转换单元,用于确定所述待转换模型中包含的神经网络层,并获取对应各神经网络层的转换结果;
处理单元,用于对所述对应各神经网络层的转换结果进行组合,得到对应所述待转换模型的转换结果。
10.根据权利要求9所述的装置,其特征在于,所述待转换模型为云端服务器中已经训练好的机器学习模型或深度学习模型。
11.根据权利要求9所述的装置,其特征在于,所述转换单元在获取对应各神经网络层的转换结果时,具体执行:
确定目标模型;
根据预设的目标模型与转换方式之间的对应关系,确定与所述目标模型对应的转换方式;
利用所确定的转换方式对各神经网络层进行转换,得到对应各神经网络层的转换结果。
12.根据权利要求9所述的装置,其特征在于,所述转换单元在获取对应各神经网络层的转换结果时,具体执行:
获取各神经网络层中包含的操作算子;
基于所获取的操作算子得到对应各神经网络层的转换结果。
13.根据权利要求12所述的装置,其特征在于,所述转换单元在基于所获取的操作算子得到对应各神经网络层的转换结果时,具体执行:
按照各神经网络层中操作算子的运算顺序,依次拼接各神经网络层中包含的操作算子;
将操作算子的拼接结果作为对应各神经网络层的转换结果。
14.根据权利要求12所述的装置,其特征在于,所述转换单元在基于所获取的操作算子得到对应各神经网络层的转换结果时,具体执行:
对各神经网络层中包含的操作算子进行转换,得到对应各操作算子的转换结果;
对各操作算子的转换结果进行拼接,得到对应各神经网络层的转换结果。
15.根据权利要求9所述的装置,其特征在于,所述处理单元在得到对应所述待转换模型的转换结果之后,还执行:
获取用户输入的设备属性信息;
根据所获取的设备属性信息确定优化参数;
根据所获取的优化参数,对所述对应待转换模型的转换结果进行优化以得到优化结果。
16.根据权利要求9所述的装置,其特征在于,所述处理单元在得到对应所述待转换模型的转换结果之后,还执行:
将所述对应待转换模型的转换结果发送并保存在云端服务器中。
17.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-8中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811487362.2A CN111291882A (zh) | 2018-12-06 | 2018-12-06 | 一种模型转换的方法、装置、设备和计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811487362.2A CN111291882A (zh) | 2018-12-06 | 2018-12-06 | 一种模型转换的方法、装置、设备和计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111291882A true CN111291882A (zh) | 2020-06-16 |
Family
ID=71024327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811487362.2A Pending CN111291882A (zh) | 2018-12-06 | 2018-12-06 | 一种模型转换的方法、装置、设备和计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111291882A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753948A (zh) * | 2020-06-23 | 2020-10-09 | 展讯通信(上海)有限公司 | 模型处理方法及相关设备 |
CN111967568A (zh) * | 2020-06-29 | 2020-11-20 | 北京百度网讯科技有限公司 | 深度学习模型的适配方法、装置及电子设备 |
CN112130895A (zh) * | 2020-08-04 | 2020-12-25 | 中科天玑数据科技股份有限公司 | 一种可移植性的模型发布方法、装置和存储介质 |
CN112633502A (zh) * | 2020-12-29 | 2021-04-09 | 北京百度网讯科技有限公司 | 一种深度学习模型的跨平台执行方法、装置及电子设备 |
WO2022179361A1 (zh) * | 2021-02-24 | 2022-09-01 | 嘉楠明芯(北京)科技有限公司 | 模型翻译方法、装置及计算机可读存储介质 |
CN114997397A (zh) * | 2022-08-01 | 2022-09-02 | 北京健康有益科技有限公司 | 一种模型转换方法、装置、终端设备及存储介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105447498A (zh) * | 2014-09-22 | 2016-03-30 | 三星电子株式会社 | 配置有神经网络的客户端设备、系统和服务器系统 |
CN107004157A (zh) * | 2015-01-22 | 2017-08-01 | 高通股份有限公司 | 模型压缩和微调 |
CN107508866A (zh) * | 2017-08-08 | 2017-12-22 | 重庆大学 | 减小移动设备端神经网络模型更新的传输消耗的方法 |
CN107563512A (zh) * | 2017-08-24 | 2018-01-09 | 腾讯科技(上海)有限公司 | 一种数据处理方法、装置以及存储介质 |
CN107665364A (zh) * | 2016-07-28 | 2018-02-06 | 三星电子株式会社 | 神经网络方法和设备 |
CN107766940A (zh) * | 2017-11-20 | 2018-03-06 | 北京百度网讯科技有限公司 | 用于生成模型的方法和装置 |
CN107766939A (zh) * | 2017-11-07 | 2018-03-06 | 维沃移动通信有限公司 | 一种数据处理方法、装置及移动终端 |
CN107837087A (zh) * | 2017-12-08 | 2018-03-27 | 兰州理工大学 | 一种基于智能手机的人体运动状态识别方法 |
WO2018058509A1 (en) * | 2016-09-30 | 2018-04-05 | Intel Corporation | Dynamic neural network surgery |
CN108009600A (zh) * | 2017-11-30 | 2018-05-08 | 北京小米移动软件有限公司 | 模型优化、质量检测方法、装置、设备及存储介质 |
KR20180075368A (ko) * | 2016-12-26 | 2018-07-04 | 한국과학기술원 | 인공 신경망 모델에서 메모리 효율성 및 학습 속도 향상을 위한 드롭아웃 방법과 이를 이용한 학습 방법 |
CN108345846A (zh) * | 2018-01-29 | 2018-07-31 | 华东师范大学 | 一种基于卷积神经网络的人体行为识别方法及识别系统 |
CN108734645A (zh) * | 2017-04-24 | 2018-11-02 | 英特尔公司 | 神经网络优化机制 |
CN108764487A (zh) * | 2018-05-29 | 2018-11-06 | 北京百度网讯科技有限公司 | 用于生成模型的方法和装置、用于识别信息的方法和装置 |
CN108764046A (zh) * | 2018-04-26 | 2018-11-06 | 平安科技(深圳)有限公司 | 车辆损伤分类模型的生成装置、方法及计算机可读存储介质 |
CN108932124A (zh) * | 2018-06-26 | 2018-12-04 | Oppo广东移动通信有限公司 | 神经网络模型压缩方法、装置、终端设备及存储介质 |
-
2018
- 2018-12-06 CN CN201811487362.2A patent/CN111291882A/zh active Pending
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105447498A (zh) * | 2014-09-22 | 2016-03-30 | 三星电子株式会社 | 配置有神经网络的客户端设备、系统和服务器系统 |
CN107004157A (zh) * | 2015-01-22 | 2017-08-01 | 高通股份有限公司 | 模型压缩和微调 |
CN107665364A (zh) * | 2016-07-28 | 2018-02-06 | 三星电子株式会社 | 神经网络方法和设备 |
WO2018058509A1 (en) * | 2016-09-30 | 2018-04-05 | Intel Corporation | Dynamic neural network surgery |
KR20180075368A (ko) * | 2016-12-26 | 2018-07-04 | 한국과학기술원 | 인공 신경망 모델에서 메모리 효율성 및 학습 속도 향상을 위한 드롭아웃 방법과 이를 이용한 학습 방법 |
CN108734645A (zh) * | 2017-04-24 | 2018-11-02 | 英特尔公司 | 神经网络优化机制 |
CN107508866A (zh) * | 2017-08-08 | 2017-12-22 | 重庆大学 | 减小移动设备端神经网络模型更新的传输消耗的方法 |
CN107563512A (zh) * | 2017-08-24 | 2018-01-09 | 腾讯科技(上海)有限公司 | 一种数据处理方法、装置以及存储介质 |
CN107766939A (zh) * | 2017-11-07 | 2018-03-06 | 维沃移动通信有限公司 | 一种数据处理方法、装置及移动终端 |
CN107766940A (zh) * | 2017-11-20 | 2018-03-06 | 北京百度网讯科技有限公司 | 用于生成模型的方法和装置 |
CN108009600A (zh) * | 2017-11-30 | 2018-05-08 | 北京小米移动软件有限公司 | 模型优化、质量检测方法、装置、设备及存储介质 |
CN107837087A (zh) * | 2017-12-08 | 2018-03-27 | 兰州理工大学 | 一种基于智能手机的人体运动状态识别方法 |
CN108345846A (zh) * | 2018-01-29 | 2018-07-31 | 华东师范大学 | 一种基于卷积神经网络的人体行为识别方法及识别系统 |
CN108764046A (zh) * | 2018-04-26 | 2018-11-06 | 平安科技(深圳)有限公司 | 车辆损伤分类模型的生成装置、方法及计算机可读存储介质 |
CN108764487A (zh) * | 2018-05-29 | 2018-11-06 | 北京百度网讯科技有限公司 | 用于生成模型的方法和装置、用于识别信息的方法和装置 |
CN108932124A (zh) * | 2018-06-26 | 2018-12-04 | Oppo广东移动通信有限公司 | 神经网络模型压缩方法、装置、终端设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
RUEVENMASK: "Ubuntu16.04---腾讯NCNN框架入门到应用", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/35387269》 * |
TENCENT: "caffe2ncnn.cpp", 《HTTPS://GITHUB.COM/TENCENT/NCNN/BLOB/20180830/TOOLS/CAFFE/CAFFE2NCNN.CPP》 * |
邹月娴 等: "《图像分类卷积神经网络的特征选择模型压缩方法(英文)》", 《控制理论与应用》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753948A (zh) * | 2020-06-23 | 2020-10-09 | 展讯通信(上海)有限公司 | 模型处理方法及相关设备 |
CN111753948B (zh) * | 2020-06-23 | 2022-11-01 | 展讯通信(上海)有限公司 | 模型处理方法及相关设备 |
CN111967568A (zh) * | 2020-06-29 | 2020-11-20 | 北京百度网讯科技有限公司 | 深度学习模型的适配方法、装置及电子设备 |
WO2022000802A1 (zh) * | 2020-06-29 | 2022-01-06 | 北京百度网讯科技有限公司 | 深度学习模型的适配方法、装置及电子设备 |
CN111967568B (zh) * | 2020-06-29 | 2023-09-01 | 北京百度网讯科技有限公司 | 深度学习模型的适配方法、装置及电子设备 |
CN112130895A (zh) * | 2020-08-04 | 2020-12-25 | 中科天玑数据科技股份有限公司 | 一种可移植性的模型发布方法、装置和存储介质 |
CN112130895B (zh) * | 2020-08-04 | 2022-04-15 | 中科天玑数据科技股份有限公司 | 一种可移植性的模型发布方法、装置和存储介质 |
CN112633502A (zh) * | 2020-12-29 | 2021-04-09 | 北京百度网讯科技有限公司 | 一种深度学习模型的跨平台执行方法、装置及电子设备 |
WO2022179361A1 (zh) * | 2021-02-24 | 2022-09-01 | 嘉楠明芯(北京)科技有限公司 | 模型翻译方法、装置及计算机可读存储介质 |
CN114997397A (zh) * | 2022-08-01 | 2022-09-02 | 北京健康有益科技有限公司 | 一种模型转换方法、装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11093707B2 (en) | Adversarial training data augmentation data for text classifiers | |
CN111291882A (zh) | 一种模型转换的方法、装置、设备和计算机存储介质 | |
CN110363810B (zh) | 建立图像检测模型的方法、装置、设备和计算机存储介质 | |
CN109002510B (zh) | 一种对话处理方法、装置、设备和介质 | |
JP6936888B2 (ja) | トレーニングコーパスの生成方法、装置、機器及び記憶媒体 | |
JP7406606B2 (ja) | テキスト認識モデルの訓練方法、テキスト認識方法及び装置 | |
CN107103903B (zh) | 基于人工智能的声学模型训练方法、装置及存储介质 | |
US11416772B2 (en) | Integrated bottom-up segmentation for semi-supervised image segmentation | |
CN109599095B (zh) | 一种语音数据的标注方法、装置、设备和计算机存储介质 | |
US11189269B2 (en) | Adversarial training data augmentation for generating related responses | |
JP6756079B2 (ja) | 人工知能に基づく三元組チェック方法、装置及びコンピュータプログラム | |
KR20220122566A (ko) | 텍스트 인식 모델의 트레이닝 방법, 텍스트 인식 방법 및 장치 | |
CN110232411B (zh) | 模型蒸馏实现方法、装置、系统、计算机设备及存储介质 | |
CN108090043B (zh) | 基于人工智能的纠错举报处理方法、装置及可读介质 | |
CN110378346B (zh) | 建立文字识别模型的方法、装置、设备和计算机存储介质 | |
CN108415939B (zh) | 基于人工智能的对话处理方法、装置、设备及计算机可读存储介质 | |
CN110704597B (zh) | 对话系统可靠性校验方法、模型生成方法及装置 | |
CN112966824A (zh) | 推理库的部署方法、装置和电子设备 | |
CN109657127B (zh) | 一种答案获取方法、装置、服务器及存储介质 | |
CN110807111A (zh) | 三维图形的处理方法及装置、存储介质、电子设备 | |
CN110850982A (zh) | 基于ar的人机交互学习方法、系统、设备及存储介质 | |
CN110781849A (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN114373460A (zh) | 车载语音助手的指令确定方法、装置、设备及介质 | |
CN115186738B (zh) | 模型训练方法、装置和存储介质 | |
CN114092608B (zh) | 表情的处理方法及装置、计算机可读存储介质、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |