CN111767059A - 深度学习模型的部署方法、装置、电子设备和存储介质 - Google Patents
深度学习模型的部署方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN111767059A CN111767059A CN202010612647.5A CN202010612647A CN111767059A CN 111767059 A CN111767059 A CN 111767059A CN 202010612647 A CN202010612647 A CN 202010612647A CN 111767059 A CN111767059 A CN 111767059A
- Authority
- CN
- China
- Prior art keywords
- deployment
- tasks
- task
- flow chart
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/60—Software deployment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Abstract
本申请公开了深度学习模型的部署方法、装置、电子设备和存储介质,涉及深度学习、云计算等领域。具体实现方案为:接收部署请求;其中,部署请求包括深度学习模型和至少两个部署设备类型;针对至少两个部署设备类型中的每个部署设备类型,确定在部署设备类型对应的设备上部署深度学习模型的流程图;在至少两个部署设备类型对应的至少两个流程图包括相同的任务的情况下,合并至少两个流程图中相同的任务,得到目标流程图。本申请实施例可以提高模型部署效率,用于图像处理、语音识别等。
Description
技术领域
本申请涉及人工智能领域,尤其深度学习、云计算领域。
背景技术
随着人工智能技术的发展,尤其是以神经网络为代表的深度学习技术的发展,越来越多的行业开始采用深度学习模型来解决特定场景的问题,如图像分类、物体检测、图像分割、语音识别等。而随着应用场景的广泛,深度学习模型需要部署在大至数据中心,小至微型智能摄像头、智能音箱等设备上。为了能在不同的设备中部署各类模型,且在性能、效果、便捷性上满足需求,通常在训练得到深度学习模型之后,仍需要有一个复杂的部署流程。相关技术中,依次调取部署流程中的任务,逐步完成任务,生成对应于部署设备的部署包。
发明内容
本申请提供了一种深度学习模型的部署方法、装置、电子设备和存储介质。
根据本申请的一方面,提供了一种深度学习模型的部署方法,包括:
接收部署请求;其中,部署请求包括深度学习模型和至少两个部署设备类型;
针对至少两个部署设备类型中的每个部署设备类型,确定在部署设备类型对应的设备上部署深度学习模型的流程图;
在至少两个部署设备类型对应的至少两个流程图包括相同的任务的情况下,合并至少两个流程图中相同的任务,得到目标流程图。
根据本申请的另一方面,提供了一种深度学习模型的部署装置,包括:
接口模块,用于接收部署请求;其中,部署请求包括深度学习模型和至少两个部署设备类型;
流程确定模块,用于针对至少两个部署设备类型中的每个部署设备类型,确定在部署设备类型对应的设备上部署深度学习模型的流程图;
流程优化模块,用于在至少两个部署设备类型对应的至少两个流程图包括相同的任务的情况下,合并至少两个流程图中相同的任务,得到目标流程图。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本申请任意实施例提供的方法。
根据本申请的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行本申请任意实施例提供的方法。
根据本申请的技术方案,部署请求可以包括至少两个部署设备类型,先针对每个部署设备类型确定深度学习模型部署的流程图,再将得到的至少两个流程图中相同的任务进行合并,可以减少重复任务的执行次数,降低对计算资源的消耗,提高模型部署的速度。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请示例性实施例的深度学习模型的部署方法的示意图;
图2是本申请示例性实施例中针对一个部署设备的流程图的示意图;
图3是本申请示例性实施例中针对一个部署设备的流程图的示意图;
图4是本申请示例性实施例中目标流程图的示意图;
图5是本申请示例性实施例中部署框架的示意图;
图6是本申请示例性实施例中队列分配的示意图;
图7是本申请示例性实施例中部署框架的应用场景示意图;
图8是根据本申请示例性实施例的深度学习模型的部署装置的示意图;
图9是根据本申请示例性实施例的深度学习模型的部署装置的示意图;
图10是用来实现本申请实施例的深度学习模型的部署方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了本申请示例性实施例提供的深度学习模型的部署方法的示意图。如图1所示,该方法包括:
步骤S11,接收部署请求;其中,部署请求包括深度学习模型和至少两个部署设备类型;
步骤S12,针对至少两个部署设备类型中的每个部署设备类型,确定在部署设备类型对应的设备上部署深度学习模型的流程图;
步骤S13,在至少两个部署设备类型对应的至少两个流程图包括相同的任务的情况下,合并至少两个流程图中相同的任务,得到目标流程图。
本申请实施例中,部署设备可以指待部署深度学习模型的设备,例如云计算平台、数据中心、高性能服务器、移动终端、智能摄像头等。部署设备的类型可以包括部署设备所采用的处理器的类型,例如Linux ARM(Advanced RISC Machine,进阶RISC处理器)、Android(安卓)ARM、iOS ARM、Linux GPU(Graphics Processing Unit,图形处理器)等。在部署设备部署深度学习模型的流程,可以包括生成在部署设备上应用的部署包,具体而言,可以包括多个任务如模型裁剪、格式转换、量化、打包编译等。
由于部署请求可以包括至少两个部署设备类型,因此,本申请实施例支持针对一个深度学习模型批量生成在多个部署设备上应用的多个部署包。
举例而言,部署请求中可以包括深度学习TF模型,以及Linux ARM、Android ARM、iOS ARM、Windows(视窗操作系统)amd64(x64,64位元的处理架构)、Linux GPU、Linux TRT、Linux OpenVino等7个部署设备类型。针对不同类型的部署设备的需求,在部署设备上部署深度学习模型的流程所包括的部署任务不完全相同。
根据上述步骤S12,先针对每个部署设备类型确定流程图。例如,针对部署设备类型Linux ARM,可以生成如图2所示的流程图,其中的任务包括由TF(Tensorflow,张量流)模型到Caffe模型的格式转换、由Caffe模型到TRT的格式转换、数据采样、模型的量化(Quantization)、轻量化(Lite Quantization)和打包编译等,最终生成可应用在LinuxARM上的部署包。又如,针对部署设备类型Linux TRT,可以生成如图3所示的流程图。相比Linux ARM,Linux TRT对应的流程图中减少了模型的轻量化的任务。依次类推,针对7个部署设备类型,可以生成7个流程图。
然后,根据上述步骤S13,由于得到的7个流程图包括相同的任务,例如针对LinuxARM和针对Linux TRT的流程图中,均包括TF模型到Caffe模型的格式转换任务,且该任务的输入信息和输出信息相同,因此针对Linux ARM和针对Linux TRT的流程图包括相同的任务,可以将两个TF模型到Caffe模型的格式转换任务合并为一个。通过对7个流程图中包括的相同任务进行合并,可以得到如图4的目标流程图。可见,目标流程图中的任务数量相比7个部署设备类型对应的流程图中的任务总数较少。因此,根据本申请实施例的方法,可以减少重复任务的执行次数,降低对计算资源的消耗,提高模型部署的速度。
示例性地,在合并相同任务得到目标流程图后,深度学习模型的部署方法还可以包括:
执行目标流程图,得到与每个部署设备类型分别对应的部署包。
本申请实施例中,执行目标流程图得到的是与部署设备类型分别对应的部署包,可便于存储和传输经各部署流程处理后的模型。
作为一种示例性的实施方式,深度学习模型的部署方法还包括:
如果至少两个流程图中的至少两个任务的前置任务或输入信息相同,且至少两个任务的任务类型相同,则确定至少两个任务相同。
其中,任务类型可以表征该任务对输入信息执行的操作,例如量化、。因此,根据该示例性的实施方式,当两个任务的输入信息以及对输入信息执行的操作都相同时,确定两个任务相同,可以进行合并。
例如,在上述针对7个部署设备类型的举例中,根据步骤S12生成的7个流程图中,均包括由TF模型到Caffe模型的格式转换任务,且可以确定这些任务的输入信息都是部署请求中的TF模型,可以将7个流程图中的由TF模型到Caffe模型的格式转换任务合并为一个任务,合并结果如图4所示。
又如,针对Linux ARM、Android ARM、iOS ARM、Windows amd64和Linux GPU的流程图中,均包括由Caffe模型到Fluid模型的格式转换任务,且这些任务的前置任务均为由TF模型到Caffe模型的格式转换任务,在确定各流程图中的由TF模型到Caffe模型的格式转换任务为相同任务后,可以确定这些由Caffe模型到Fluid模型的格式转换任务为相同的任务,可以将其合并为一个任务,合并结果如图4所示。
依次类推,对于上述针对Linux ARM、Android ARM、iOS ARM、Windows amd64和Linux GPU的流程图中的Fluid量化任务,由于前置任务包括采样任务和由Caffe模型到Fluid模型的格式转换任务,且各流程图中采样任务和由Caffe模型到Fluid模型的格式转换任务均相同,因此可以将各Fluid量化任务合并为一个任务,合并结果如图4所示。
根据该示例性的实施方式,可以准确确定两个任务是否相同,从而提高合并任务的准确性,使模型部署结果能够符合应用需求。
示例性地,可利用一个任务框架例如图5所示的框架实现模型的部署方法。该框架包括接口服务层、动态任务优化层、调度层和执行层。
其中,接口服务层提供统一的对外API(Application Programming Interface,应用程序接口)。部署请求方需要发起部署请求时,只需要与API进行交互,即可完成所有功能,无需关注任务框架的内部细节。接口服务层提供的接口包括:部署任务创建、任务状态查询、参数展示、任务更新、配置更新等。在调用部署任务创建接口时,需要输入的参数包括:模型类型、训练框架、部署设备类型(包括操作系统和处理器类型等)、加速模式、模型存储路径中的一种或多种。接口服务层支持对一个深度学习模型请求生成适用于多个硬件和系统的部署包。接口服务层的后台包括web(World Wide Web,万维网)服务,实现了具体的接口。同时包含一个NoSQL(Not Only SQL,非关系型)数据库用于存储相关配置以及任务信息。
动态任务优化层看用于优化部署任务的执行流程,例如执行上述步骤S12和步骤S13。
调度层用于调度目标流程图中各任务的执行。
执行层用于执行目标流程图中各任务。
上述任务框架仅作为示例性参考,实际应用时,也可以采用其他任务框架,实现模型的部署方法。
示例性地,深度学习模型的部署方法还包括:
执行层的wrapper执行目标流程图,获取执行目标流程图所需的参数;
在执行层的执行工具执行目标流程图时,wrapper将参数透传至执行工具。
举例而言,在生成目标流程图后,目标流程图中的各任务会由统一的wrapper预执行,该wrapper会根据预执行过程中处理到的任务的ID、任务类型等,向接口服务层请求参数。接口服务层返回参数后,由执行层的执行工具执行目标流程图,该wrapper以环境变量的方式,把这些参数透传至执行工具。
根据该示例性实施方式,通过预先获取执行过程所需参数,在执行工具执行时将参数透传至执行工具,可以提高执行效率。
示例性地,执行目标流程图,得到与每个部署设备类型分别对应的部署包,包括:
根据目标流程图中每个任务的资源需求,将每个任务分配至对应的队列中;
根据每个任务所在的队列对应的并发配置,并发执行对应于不同部署设备类型的任务,得到与每个部署设备类型分别对应的部署包。
例如,在如图5所示的框架中,执行层将各任务分配到转换队列、编译队列、轻量化队列、Fluid量化队列、TRT量化队列、OpenVino队列等。
具体而言,可以根据每个任务的CPU(Central Processing Unit,中央处理器)资源需求、内存资源需求和GPU资源需求将每个任务分配到对应的队列中。各队列对应于不同的并发配置,并发配置可以指可同时并发执行的任务数量。分配方式可以是将资源需求量大的任务分配在并发数量少的队列中;将资源需求量少的任务分配在并发数量多的队列中。
例如,如图6所示,第一队列对应的并发配置是并发数量为1或2,第二队列对应的并发配置是并发数量为10。可以将资源需求量大的格式转换任务分配到第一队列中,将资源需求量少的数据采样和各种量化任务分配到第二队列中。此外,还可以配置第三队列,将资源需求量等级不同的其他任务如打包编译任务分配到第三队列中。
分配完队列后,可以按照目标流程图中各任务的先后顺序,依次执行各任务。也就是说,对应于同一部署设备类型的任务顺次执行。在具体执行时,根据当前执行的任务所在队列对应的并发配置,并发执行对应于不同部署设备类型的任务,例如,并发执行图4中的多个打包编译任务。
根据该示例性的实施方式,对应于不同部署设备类型的任务可以根据资源需求并发执行,因此,可以在资源允许的情况下,快速地得到与每个部署设备分别对应的部署包,提高部署效率。
图7示出了本申请示例性实施例中部署框架的应用场景示意图。如图7所示,接口服务提供与外部的接口,任务框架包括多个处理模块如转换器、模型优化器、编译器。其中,模型优化器结合对外部的依赖模块,应用web服务、数据库和模型处理模块,对模型进行一些列模型优化任务,如蒸馏、修剪、结构搜索、量化等。实际应用时,根据输入的网络类型如ResNet(残差网络)、处理器类型如ARM和操作系统类型如Linux,确定优化任务,并按照次序执行任务。
根据本申请实施例的方法,部署请求可以包括至少两个部署设备类型,先针对每个部署设备类型确定深度学习模型部署的流程图,再将得到的至少两个流程图中相同的任务进行合并,可以减少重复任务的执行次数,降低对计算资源的消耗,提高模型部署的速度。
图8示出了本申请示例性实施例提供的深度学习模型的部署装置的示意图。该装置包括:
接口模块810,用于接收部署请求;其中,部署请求包括深度学习模型和至少两个部署设备类型;
流程确定模块820,用于针对至少两个部署设备类型中的每个部署设备类型,确定在部署设备类型对应的设备上部署深度学习模型的流程图;
流程优化模块830,用于在至少两个部署设备类型对应的至少两个流程图包括相同的任务的情况下,合并至少两个流程图中相同的任务,得到目标流程图。
示例性地,如图9所示,该装置还可以包括:
执行模块840,用于执行目标流程图,得到与每个部署设备类型分别对应的部署包。
示例性地,如图9所示,该装置还可以包括:
任务确定模块850,用于在至少两个流程图中的至少两个任务的前置任务或输入信息相同,且至少两个任务的任务类型相同的情况下,确定至少两个任务相同。
示例性地,如图9所示,该装置还可以包括:
参数获取模块860,用于利用执行层的wrapper执行目标流程图,获取执行目标流程图所需的参数;
透传模块870,用于在执行层的执行工具执行目标流程图时,wrapper将参数透传至执行工具。
示例性地,如图9所示,执行模块840包括:
分配单元841,用于根据目标流程图中每个任务的资源需求,将每个任务分配至对应的队列中;
并发执行单元842,用于根据每个任务所在的队列对应的并发配置,并发执行目标流程图中与每个部署设备类型分别对应的任务,得到与每个部署设备类型分别对应的部署包。
本申请实施例提供的装置,能够实现本申请实施例提供的方法,具备相应的有益效果。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图10所示,是根据本申请实施例的深度学习模型的部署方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图10所示,该电子设备包括:一个或多个处理器1001、存储器1002,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图10中以一个处理器1001为例。
存储器1002即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的深度学习模型的部署方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的深度学习模型的部署方法。
存储器1002作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的深度学习模型的部署方法对应的程序指令/模块(例如,附图8所示的接口模块810、流程确定模块820和流程优化模块830)。处理器1001通过运行存储在存储器1002中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的深度学习模型的部署方法。
存储器1002可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据视频切换的电子设备的使用所创建的数据等。此外,存储器1002可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1002可选包括相对于处理器1001远程设置的存储器,这些远程存储器可以通过网络连接至视频切换的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
深度学习模型的部署方法的电子设备还可以包括:输入装置1003和输出装置1004。处理器1001、存储器1002、输入装置1003和输出装置1004可以通过总线或者其他方式连接,图10中以通过总线连接为例。
输入装置1003可接收输入的数字或字符信息,以及产生与视频切换的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1004可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与虚拟专用服务器(VPS)服务中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请的技术方案,部署请求可以包括至少两个部署设备类型,先针对每个部署设备类型确定深度学习模型部署的流程图,再将得到的至少两个流程图中相同的任务进行合并,可以减少重复任务的执行次数,降低对计算资源的消耗,提高模型部署的速度。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种深度学习模型的部署方法,包括:
接收部署请求;其中,所述部署请求包括深度学习模型和至少两个部署设备类型;
针对所述至少两个部署设备类型中的每个部署设备类型,确定在所述部署设备类型对应的设备上部署所述深度学习模型的流程图;
在所述至少两个部署设备类型对应的至少两个流程图包括相同的任务的情况下,合并所述至少两个流程图中相同的任务,得到目标流程图。
2.根据权利要求1所述的方法,还包括:
执行所述目标流程图,得到与所述每个部署设备类型分别对应的部署包。
3.根据权利要求1或2所述的方法,还包括:
如果所述至少两个流程图中的至少两个任务的前置任务或输入信息相同,且所述至少两个任务的任务类型相同,则确定所述至少两个任务相同。
4.根据权利要求1或2所述的方法,还包括:
执行层的wrapper执行所述目标流程图,获取执行所述目标流程图所需的参数;
在执行层的执行工具执行所述目标流程图时,所述wrapper将所述参数透传至所述执行工具。
5.根据权利要求2所述的方法,其中,所述执行所述目标流程图,得到与所述每个部署设备类型分别对应的部署包,包括:
根据所述目标流程图中每个任务的资源需求,将所述每个任务分配至对应的队列中;
根据所述每个任务所在的队列对应的并发配置,并发执行对应于不同部署设备类型的任务,得到与所述每个部署设备类型分别对应的部署包。
6.一种深度学习模型的部署装置,包括:
接口模块,用于接收部署请求;其中,所述部署请求包括深度学习模型和至少两个部署设备类型;
流程确定模块,用于针对所述至少两个部署设备类型中的每个部署设备类型,确定在所述部署设备类型对应的设备上部署所述深度学习模型的流程图;
流程优化模块,用于在所述至少两个部署设备类型对应的至少两个流程图包括相同的任务的情况下,合并所述至少两个流程图中相同的任务,得到目标流程图。
7.根据权利要求6所述的装置,还包括:
执行模块,用于执行所述目标流程图,得到与所述每个部署设备类型分别对应的部署包。
8.根据权利要求6或7所述的装置,还包括:
任务确定模块,用于在所述至少两个流程图中的至少两个任务的前置任务或输入信息相同,且所述至少两个任务的任务类型相同的情况下,确定所述至少两个任务相同。
9.根据权利要求6或7所述的装置,还包括:
参数获取模块,用于利用执行层的wrapper执行所述目标流程图,获取执行所述目标流程图所需的参数;
透传模块,用于在执行层的执行工具执行所述目标流程图时,所述wrapper将所述参数透传至所述执行工具。
10.根据权利要求7所述的装置,其中,所述执行模块包括:
分配单元,用于根据所述目标流程图中每个任务的资源需求,将所述每个任务分配至对应的队列中;
并发执行单元,用于根据所述每个任务所在的队列对应的并发配置,并发执行对应于不同部署设备类型的任务,得到与所述每个部署设备类型分别对应的部署包。
11.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010612647.5A CN111767059B (zh) | 2020-06-30 | 2020-06-30 | 深度学习模型的部署方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010612647.5A CN111767059B (zh) | 2020-06-30 | 2020-06-30 | 深度学习模型的部署方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111767059A true CN111767059A (zh) | 2020-10-13 |
CN111767059B CN111767059B (zh) | 2023-03-31 |
Family
ID=72722888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010612647.5A Active CN111767059B (zh) | 2020-06-30 | 2020-06-30 | 深度学习模型的部署方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111767059B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112698841A (zh) * | 2021-01-14 | 2021-04-23 | 北京大学(天津滨海)新一代信息技术研究院 | 面向Android的深度学习模型统一部署系统、方法、设备及介质 |
CN116911406A (zh) * | 2023-07-05 | 2023-10-20 | 上海数禾信息科技有限公司 | 风控模型部署方法、装置、计算机设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170068889A1 (en) * | 2015-09-04 | 2017-03-09 | Baidu Usa Llc | Systems and methods for efficient neural network deployments |
US20180082175A1 (en) * | 2016-01-12 | 2018-03-22 | Tencent Technology (Shenzhen) Company Limited | Convolutional Neural Network Processing Method and Device |
US20180322365A1 (en) * | 2017-05-05 | 2018-11-08 | Intel Corporation | On the fly deep learning in machine learning for autonomous machines |
CN110704178A (zh) * | 2019-09-04 | 2020-01-17 | 北京三快在线科技有限公司 | 机器学习模型训练方法、平台、电子设备及可读存储介质 |
US10614382B1 (en) * | 2019-07-12 | 2020-04-07 | Capital One Services, Llc | Computer-based systems and methods configured to utilize automating deployment of predictive models for machine learning tasks |
CN111290762A (zh) * | 2020-01-19 | 2020-06-16 | 深圳云天励飞技术有限公司 | 一种深度学习网络的部署方法、装置及终端设备 |
-
2020
- 2020-06-30 CN CN202010612647.5A patent/CN111767059B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170068889A1 (en) * | 2015-09-04 | 2017-03-09 | Baidu Usa Llc | Systems and methods for efficient neural network deployments |
US20180082175A1 (en) * | 2016-01-12 | 2018-03-22 | Tencent Technology (Shenzhen) Company Limited | Convolutional Neural Network Processing Method and Device |
US20180322365A1 (en) * | 2017-05-05 | 2018-11-08 | Intel Corporation | On the fly deep learning in machine learning for autonomous machines |
US10614382B1 (en) * | 2019-07-12 | 2020-04-07 | Capital One Services, Llc | Computer-based systems and methods configured to utilize automating deployment of predictive models for machine learning tasks |
CN110704178A (zh) * | 2019-09-04 | 2020-01-17 | 北京三快在线科技有限公司 | 机器学习模型训练方法、平台、电子设备及可读存储介质 |
CN111290762A (zh) * | 2020-01-19 | 2020-06-16 | 深圳云天励飞技术有限公司 | 一种深度学习网络的部署方法、装置及终端设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112698841A (zh) * | 2021-01-14 | 2021-04-23 | 北京大学(天津滨海)新一代信息技术研究院 | 面向Android的深度学习模型统一部署系统、方法、设备及介质 |
CN116911406A (zh) * | 2023-07-05 | 2023-10-20 | 上海数禾信息科技有限公司 | 风控模型部署方法、装置、计算机设备和存储介质 |
CN116911406B (zh) * | 2023-07-05 | 2024-02-02 | 上海数禾信息科技有限公司 | 风控模型部署方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111767059B (zh) | 2023-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11163610B2 (en) | Method, device, and computer program product for assigning tasks to dedicated processing resources | |
CN110806923B (zh) | 一种区块链任务的并行处理方法、装置、电子设备和介质 | |
CN112988499B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
JP2022023769A (ja) | サーバリソースを割り当てるための方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
US10191735B2 (en) | Language-independent program composition using containers | |
US10977076B2 (en) | Method and apparatus for processing a heterogeneous cluster-oriented task | |
US11429434B2 (en) | Elastic execution of machine learning workloads using application based profiling | |
CN111967568A (zh) | 深度学习模型的适配方法、装置及电子设备 | |
CN111694857B (zh) | 存储资源数据的方法、装置、电子设备及计算机可读介质 | |
KR20210080292A (ko) | 딥 러닝 추론 엔진의 스케줄링 방법, 장치, 기기 및 매체 | |
CN111767059B (zh) | 深度学习模型的部署方法、装置、电子设备和存储介质 | |
CN111400000A (zh) | 网络请求处理方法、装置、设备和存储介质 | |
CN111783952A (zh) | 配置方法、装置、系统、电子设备以及存储介质 | |
CN111782181A (zh) | 代码生成方法、装置、电子设备以及存储介质 | |
CN111767089A (zh) | 加载文件的方法、装置、设备以及存储介质 | |
CN111563253B (zh) | 智能合约运行方法、装置、设备及存储介质 | |
CN112015468A (zh) | 一种接口文档处理方法、装置、电子设备以及存储介质 | |
CN111290744B (zh) | 流式计算作业处理方法、流式计算系统及电子设备 | |
US10409762B2 (en) | Remote direct memory access-based on static analysis of asynchronous blocks | |
CN114661274A (zh) | 用于生成智能合约的方法和装置 | |
JP2021118004A (ja) | グラフ計算の処理方法、装置、電子機器及び記憶媒体 | |
CN112579096A (zh) | 小程序启动文件的编译、加载方法、装置、设备和介质 | |
CN111857825A (zh) | 指令执行方法、装置、电子设备和计算机可读存储介质 | |
CN111582480A (zh) | 用于对模型剪枝的方法和装置 | |
CN115469887A (zh) | 云原生应用的发布方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |