CN109408062A - 一种自动部署模型训练环境的方法和装置 - Google Patents
一种自动部署模型训练环境的方法和装置 Download PDFInfo
- Publication number
- CN109408062A CN109408062A CN201811293231.0A CN201811293231A CN109408062A CN 109408062 A CN109408062 A CN 109408062A CN 201811293231 A CN201811293231 A CN 201811293231A CN 109408062 A CN109408062 A CN 109408062A
- Authority
- CN
- China
- Prior art keywords
- docker
- script
- mirror image
- run
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/60—Software deployment
- G06F8/61—Installation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45504—Abstract machines for programme code execution, e.g. Java virtual machine [JVM], interpreters, emulators
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Stored Programmes (AREA)
Abstract
本发明提供了一种自动部署模型训练环境的方法及装置,该方法包括以下步骤:安装并启动Docker及NVIDIA‑Docker;运行第一脚本以基于Docker及NVIDIA‑Docker创建镜像;运行第二脚本以基于Docker及NVIDIA‑Docker创建镜像的容器;以及创建完容器后,运行第三脚本以启动模型训练。该方法采用Docker容器来部署深度学习语音识别训练的环境,能够简化语音模型训练的环境部署的步骤,将训练数据的准备、模型的训练模块化,操作方便、可移植性强。
Description
技术领域
本发明总体上涉及计算机领域,并且更具体地,涉及一种自动部署模型训练环境的方法和装置。
背景技术
语音转文本是一个热门的机器学习领域。然而,由于各地的人们有着不同的口音,这也是一个难以解决的问题,不过仍然可以通过深度学习实现非常不错的准确性。MozillaDeepSpeech这个GitHub项目使用TensorFlow将语音转换为文本,其实这个项目是一个基于百度DeepSpeech架构的TensorFlow实现,换句话说,这个项目就是百度的内核,谷歌的外貌。其中DeepSpeech是一个端到端的语音模型,是吴恩达带领百度团队研发出来的成果,最早发布于2014年底。
目前,官网上提供了两种部署TensorFlow深度学习框架的方式,一种是使用pip简单安装,另一种是用源码进行编译安装,由于需要依赖的类库比较多,还有对版本的要求,没有现成的自动化工具可利用,对于新手来说部署比较困难,尤其是在物理环境下部署出现问题,想恢复原系统状态就增加了额外排查问题的风险;Mozilla的深度学习语音识别工具,提供了多种部署方式,但是官网未对需要的库的版本做出说明,而且部署过程结束条理性也欠佳,需要开发者自己去尝试,效率比较低。对于没有深度学习和语音识别知识的新手,尝试部署一套语音模型训练的环境,是一件非常繁琐的事情。
发明内容
鉴于此,本发明实施例的目的在于提出一种利用Docker和NVIDIA-Docker,通过Dockerfile配置文件实现灵活地自动化创建和部署深度学习语音识别工具的方法和装置,不但提高了工作效率,而且可移植性强。
基于上述目的,本发明实施例的一方面提供了一种自动部署模型训练环境的方法,包括以下步骤:
安装并启动Docker及NVIDIA-Docker;
运行第一脚本以基于所述Docker及NVIDIA-Docker创建镜像;
运行第二脚本以基于所述Docker及NVIDIA-Docker创建所述镜像的容器;以及
创建完所述容器后,运行第三脚本以启动模型训练。
在一些实施方式中,运行第一脚本以基于所述Docker及NVIDIA-Docker创建镜像包括:通过所述第一脚本根据Dockerfile文件执行命令以编译所述镜像。
在一些实施方式中,所述Dockerfile文件中包括设置所述镜像使用的基础镜像和相关的基准库。
在一些实施方式中,所述模型是深度学习语音识别模型。
在一些实施方式中,所述第三脚本包括提供自动下载训练数据及转换数据的脚本。
在一些实施方式中,所述第三脚本还包括提供自动化训练模型的脚本,用户只需要设置训练的迭代步数,就可启动测试。
在一些实施方式中,所述模型可以是机器翻译模型。
本发明实施例的另一方面,还提供了一种自动部署模型训练环境的装置,其特征在于,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行上述任意一项所述的方法。
在一些实施方式中,所述装置搭载于5280M5服务器上,所述服务器安装有一个或多个GPU。
在一些实施方式中,所述服务器搭载ubuntu操作系统。
本发明具有以下有益技术效果:本发明实施例提供的一种自动部署模型训练环境的方法采用Docker容器来部署深度学习语音识别训练的环境,能够简化语音模型训练的环境部署的步骤,将训练数据的准备、模型的训练都模块化,与物理机上的应用实现隔离,操作方便。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的自动部署模型训练环境的方法的流程图;
图2是根据本发明实施例的启动模型训练的步骤的流程图;
图3是根据本发明提供的自动部署模型训练环境的装置的一个实施例的硬件结构示意图。
具体实施方式
以下描述了本公开的实施例。然而,应该理解,所公开的实施例仅仅是示例,并且其他实施例可以采取各种替代形式。附图不一定按比例绘制;某些功能可能被夸大或最小化以显示特定部件的细节。因此,本文公开的具体结构和功能细节不应被解释为限制性的,而仅仅是作为用于教导本领域技术人员以各种方式使用本发明的代表性基础。如本领域普通技术人员将理解的,参考任何一个附图所示出和描述的各种特征可以与一个或多个其他附图中所示的特征组合以产生没有明确示出或描述的实施例。所示特征的组合为典型应用提供了代表性实施例。然而,与本公开的教导相一致的特征的各种组合和修改对于某些特定应用或实施方式可能是期望的。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,便可以实现虚拟化。容器是完全使用沙箱机制,相互之间不会有任何接口。作为一种轻量级的虚拟化方式,Docker在运行应用上跟传统的虚拟机方式相比具有显著优势:Docker容器很快,启动和停止可以在秒级实现,这相比传统的虚拟机方式要快得多;Docker容器对系统资源需求很少,一台主机上可以同时运行数千个Docker容器;Docker通过类似Git的操作来方便用户获取、分发和更新应用镜像,指令简明,学习成本较低;Docker通过Dockerfile配置文件来支持灵活的自动化创建和部署机制,提高工作效率。
Docker镜像中包含了运行环境和配置,所以Docker可以简化部署多种应用实例工作,比如Web应用、后台应用、数据库应用、大数据应用比、消息队列等等都可以打包成一个镜像部署。生成镜像的方式有Dockerfile创建和手动创建,其中Dockerfile是由一系列命令和参数构成的脚本,这些命令应用于基础镜像并最终创建一个新的镜像。它们简化了从头到尾的流程并极大地简化了部署工作。Dockerfile从FROM命令开始,紧接着跟随各种方法、命令和参数,其产出为一个新的可以用于创建容器的镜像,类似于Makefile。
因为GPU属于特定的厂商产品,需要特定的驱动,Docker本身并不支持GPU。以前如果需要在Docker中使用GPU,就需要在容器中安装主机上使用GPU的驱动,然后把主机上的GPU设备映射到容器中,所以这样的Docker镜像并不具备可移植性。NVIDIA-Docker项目就是为了解决这个问题,它让Docker镜像不需要知道底层GPU的相关信息,而是通过启动容器时安装设备和驱动文件来实现的。
由此,基于Docker,本发明的实施例提供了一种自动部署模型训练环境的方法,包括以下步骤:
步骤S101:安装Docker及NVIDIA-Docker2。
步骤S103:安装完成后,运行创建镜像的脚本;
步骤S105:运行创建所述镜像的容器的脚本;以及
步骤S107:运行启动模型训练的脚本。
对于没有深度学习和语音识别知识的新手,尝试部署一套语音模型训练的环境,是一件非常繁琐的事情,因此在根据本发明的一个实施例中,该方法用于部署TensorFlow和DeepSpeech环境。在一些实施例中,创建镜像的脚本根据Dockerfile文件执行命令以编译所述镜像。整个部署过程全部写在Dockfile里,用户只需要执行dockfile build命令创建一个镜像,之后再创建容器,语音模型训练的环境就部署完成。其中,在一个实施例中,Dockerfile文件的内容包括用于设置镜像所使用的基础镜像:nvidia/cuda:9.0-cudnn7-devel-ubuntu16.04、编译镜像时运行的各类脚本(包括安装各种基准库,例如tensorflow-gpu==1.8、deepspeech-gpu等)等,Dockerfile文件的主要内容示例如下:
FROM nvidia/cuda:9.0-cudnn7-devel-ubuntu16.04
WORKDIR/tmp
RUN apt-get update&&apt-get install-y python python-pip sox
libsox-dev libsox-fmt-all git cmake
RUN pip install--upgrade pip
RUN pip install tensorflow-gpu==1.8
RUN pip install deepspeech
在根据本发明的一个优选实施例中,一台5280M5机器上安装8个32G V100GPU卡,搭载ubuntu16.04的系统。为了在该机器上部署DeepSpeech语音训练模型的环境,首先用户安装Docker、NVIDIA-Docker2;然后运行sh build-docker.sh脚本,根据Dockerfile文件创建镜像,镜像名可指定为deepspeech-cuda9cudnn7:gpu;运行sh run-dev.sh脚本,创建镜像deepspeech-cuda9cudnn7:gpu的容器;运行sh run_and_time.sh脚本,启动DeepSpeech语音识别模型的训练,用户如果想要修改模型的训练参数,只需要更改此文件即可。其中,run_and_time.sh脚本执行的功能如图2所示,因为首次训练会包含训练数据的下载及格式转换,可以使用默认参数启动模型训练。例如,可以根据Common Voice开源语音数据集来进行语音模型的训练。
在一些实施例中,所述方法还可以应用于机器翻译的模型训练上。机器翻译是指利用计算机将一种自然语言转换为另一种自然语言的过程,其原理是从语料库大量的翻译实例中自动学习翻译知识,然后利用这些翻译知识自动翻译其他句子。
在技术上可行的情况下,以上针对不同实施例所列举的技术特征可以相互组合,或者改变、添加以及省略等等,从而形成本发明范围内的另外实施例。
从上述实施例可以看出,本发明实施例提供的一种自动部署模型训练环境的方法采用Docker容器来部署深度学习语音识别训练的环境,能够简化语音模型训练的环境部署的步骤,将训练数据的准备、模型的训练都模块化,用户只需更改一些参数就能更改模型的训练参数,并且与物理机上的应用实现隔离,操作方便,可移植性强。
基于上述目的,本发明实施例的第二个方面,提出了一种自动部署模型训练环境的装置的一个实施例。
所述软件线路差异自动对比装置包括至少一个处理器和存储器,存储器存储有可在处理器上运行的计算机程序,处理器执行程序时执行上述任意一种方法。
如图3所示,为本发明提供的自动部署模型训练环境的装置的一个实施例的硬件结构示意图。
以如图3为例,在该装置中包括一个处理器301以及一个存储器302,并还可以包括:输入装置303和输出装置304。
处理器301、存储器302、输入装置303和输出装置304可以通过总线或者其他方式连接,图3中以通过总线连接为例。
存储器302作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的所述自动部署模型训练环境的方法对应的程序指令/模块。处理器301通过运行存储在存储器302中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的自动部署模型训练环境的方法。
存储器302可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据自动部署模型训练环境的装置的使用所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器302可选包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置303可接收输入的数字或字符信息,以及产生与自动部署模型训练环境的装置的用户设置以及功能控制有关的键信号输入。输出装置304可包括显示屏等显示设备。
所述一个或者多个自动部署模型训练环境的方法对应的程序指令/模块存储在所述存储器302中,当被所述处理器301执行时,执行上述任意方法实施例中的自动部署模型训练环境的方法。
所述执行所述自动部署模型训练环境的装置的任何一个实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。
此外,典型地,本发明实施例公开所述的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开所述的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文所述的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDR SDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现所述的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里所述功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,所述存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,所述功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将所述功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器、磁盘或光盘等。
上述“优选”实施例是实施方式的可能示例,并且仅仅为了清楚理解本发明的原理而提出。所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种自动部署模型训练环境的方法,其特征在于,包括以下步骤:
安装并启动Docker及NVIDIA-Docker;
运行第一脚本以基于所述Docker及NVIDIA-Docker创建镜像;
运行第二脚本以基于所述Docker及NVIDIA-Docker创建所述镜像的容器;以及
创建完所述容器后,运行第三脚本以启动模型训练。
2.根据权利要求1所述的方法,其特征在于,运行第一脚本以基于所述Docker及NVIDIA-Docker创建镜像包括:通过所述第一脚本根据Dockerfile文件执行命令以编译所述镜像。
3.根据权利要求2所述的方法,其特征在于,所述Dockerfile文件中包括设置所述镜像使用的基础镜像和相关的基准库。
4.根据权利要求1所述的方法,其特征在于,所述模型是深度学习语音识别模型。
5.根据权利要求1所述的方法,其特征在于,所述第三脚本包括提供自动下载训练数据及转换数据的脚本。
6.根据权利要求5所述的方法,其特征在于,所述第三脚本还包括提供自动化训练模型的脚本,用户只需要设置训练的迭代步数,就可启动测试。
7.根据权利要求1所述的方法,其特征在于,所述模型可以是机器翻译模型。
8.一种自动部署模型训练环境的装置,其特征在于,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-7任意一项所述的方法。
9.根据权利要求8所述的装置,其特征在于,所述装置搭载于5280M5服务器上,所述服务器安装有一个或多个GPU。
10.根据权利要求9所述的装置,其特征在于,所述服务器搭载ubuntu操作系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811293231.0A CN109408062A (zh) | 2018-11-01 | 2018-11-01 | 一种自动部署模型训练环境的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811293231.0A CN109408062A (zh) | 2018-11-01 | 2018-11-01 | 一种自动部署模型训练环境的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109408062A true CN109408062A (zh) | 2019-03-01 |
Family
ID=65471051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811293231.0A Pending CN109408062A (zh) | 2018-11-01 | 2018-11-01 | 一种自动部署模型训练环境的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109408062A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110908686A (zh) * | 2019-11-15 | 2020-03-24 | 西安雷风电子科技有限公司 | 一种容器镜像的替换方法 |
CN110908893A (zh) * | 2019-10-08 | 2020-03-24 | 深圳逻辑汇科技有限公司 | 联邦学习的沙盒机制 |
CN111126606A (zh) * | 2020-03-30 | 2020-05-08 | 同盾控股有限公司 | 基于平台的深度学习模型自主训练方法、装置、设备及介质 |
CN111158704A (zh) * | 2020-01-02 | 2020-05-15 | 中国银行股份有限公司 | 模型建立方法、部署流程生成方法、装置和电子设备 |
CN111432022A (zh) * | 2020-04-07 | 2020-07-17 | 深圳中兴网信科技有限公司 | 模型部署方法、服务器和计算机可读存储介质 |
CN112241368A (zh) * | 2020-09-30 | 2021-01-19 | 北京影谱科技股份有限公司 | 基于Kubernetes的自动化模型训练方法和装置 |
CN112463301A (zh) * | 2020-11-30 | 2021-03-09 | 常州微亿智造科技有限公司 | 基于容器的模型训练测试调优和部署方法和装置 |
CN112700004A (zh) * | 2020-12-25 | 2021-04-23 | 南方电网深圳数字电网研究院有限公司 | 基于容器技术的深度学习模型训练方法、设备及存储介质 |
CN112926736A (zh) * | 2021-02-26 | 2021-06-08 | 全球能源互联网研究院有限公司 | 一种深度学习技术工具链系统 |
CN113241056A (zh) * | 2021-04-26 | 2021-08-10 | 标贝(北京)科技有限公司 | 语音合成模型的训练与语音合成方法、装置、系统及介质 |
CN113711180A (zh) * | 2019-04-11 | 2021-11-26 | 微软技术许可有限责任公司 | 基于从机器学习模型得出的操作向机群中的设备创建和部署包 |
CN114416196A (zh) * | 2021-12-24 | 2022-04-29 | 深圳开源互联网安全技术有限公司 | 一种多服务级联启动方法、装置及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106325975A (zh) * | 2016-09-09 | 2017-01-11 | 浪潮软件股份有限公司 | 一种利用Docker容器自动化部署与管理大数据集群的方法 |
CN107783818A (zh) * | 2017-10-13 | 2018-03-09 | 北京百度网讯科技有限公司 | 深度学习任务处理方法、装置、设备及存储介质 |
CN108197633A (zh) * | 2017-11-24 | 2018-06-22 | 百年金海科技有限公司 | 基于TensorFlow的深度学习图像分类与应用部署方法 |
CN108563488A (zh) * | 2018-01-05 | 2018-09-21 | 新华三云计算技术有限公司 | 模型训练方法及装置、构建容器镜像的方法及装置 |
-
2018
- 2018-11-01 CN CN201811293231.0A patent/CN109408062A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106325975A (zh) * | 2016-09-09 | 2017-01-11 | 浪潮软件股份有限公司 | 一种利用Docker容器自动化部署与管理大数据集群的方法 |
CN107783818A (zh) * | 2017-10-13 | 2018-03-09 | 北京百度网讯科技有限公司 | 深度学习任务处理方法、装置、设备及存储介质 |
CN108197633A (zh) * | 2017-11-24 | 2018-06-22 | 百年金海科技有限公司 | 基于TensorFlow的深度学习图像分类与应用部署方法 |
CN108563488A (zh) * | 2018-01-05 | 2018-09-21 | 新华三云计算技术有限公司 | 模型训练方法及装置、构建容器镜像的方法及装置 |
Non-Patent Citations (2)
Title |
---|
林桂芳: "异构化TensorFlow架构的研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊 )》 * |
青岛英谷教育科技股份有限公司著: "《云计算与虚拟化技术》", 28 February 2018, 西安电子科技大学出版社 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113711180A (zh) * | 2019-04-11 | 2021-11-26 | 微软技术许可有限责任公司 | 基于从机器学习模型得出的操作向机群中的设备创建和部署包 |
CN110908893A (zh) * | 2019-10-08 | 2020-03-24 | 深圳逻辑汇科技有限公司 | 联邦学习的沙盒机制 |
CN110908686B (zh) * | 2019-11-15 | 2023-08-29 | 西安雷风电子科技有限公司 | 一种容器镜像的替换方法 |
CN110908686A (zh) * | 2019-11-15 | 2020-03-24 | 西安雷风电子科技有限公司 | 一种容器镜像的替换方法 |
CN111158704A (zh) * | 2020-01-02 | 2020-05-15 | 中国银行股份有限公司 | 模型建立方法、部署流程生成方法、装置和电子设备 |
CN111158704B (zh) * | 2020-01-02 | 2023-08-22 | 中国银行股份有限公司 | 模型建立方法、部署流程生成方法、装置和电子设备 |
CN111126606A (zh) * | 2020-03-30 | 2020-05-08 | 同盾控股有限公司 | 基于平台的深度学习模型自主训练方法、装置、设备及介质 |
CN111126606B (zh) * | 2020-03-30 | 2020-07-28 | 同盾控股有限公司 | 基于平台的深度学习模型自主训练方法、装置、设备及介质 |
CN111432022A (zh) * | 2020-04-07 | 2020-07-17 | 深圳中兴网信科技有限公司 | 模型部署方法、服务器和计算机可读存储介质 |
CN112241368A (zh) * | 2020-09-30 | 2021-01-19 | 北京影谱科技股份有限公司 | 基于Kubernetes的自动化模型训练方法和装置 |
CN112463301B (zh) * | 2020-11-30 | 2022-02-11 | 常州微亿智造科技有限公司 | 基于容器的模型训练测试调优和部署方法和装置 |
CN112463301A (zh) * | 2020-11-30 | 2021-03-09 | 常州微亿智造科技有限公司 | 基于容器的模型训练测试调优和部署方法和装置 |
CN112700004A (zh) * | 2020-12-25 | 2021-04-23 | 南方电网深圳数字电网研究院有限公司 | 基于容器技术的深度学习模型训练方法、设备及存储介质 |
CN112926736A (zh) * | 2021-02-26 | 2021-06-08 | 全球能源互联网研究院有限公司 | 一种深度学习技术工具链系统 |
CN112926736B (zh) * | 2021-02-26 | 2023-12-08 | 国网智能电网研究院有限公司 | 一种深度学习技术工具链系统 |
CN113241056A (zh) * | 2021-04-26 | 2021-08-10 | 标贝(北京)科技有限公司 | 语音合成模型的训练与语音合成方法、装置、系统及介质 |
CN113241056B (zh) * | 2021-04-26 | 2024-03-15 | 标贝(青岛)科技有限公司 | 语音合成模型的训练与语音合成方法、装置、系统及介质 |
CN114416196A (zh) * | 2021-12-24 | 2022-04-29 | 深圳开源互联网安全技术有限公司 | 一种多服务级联启动方法、装置及计算机可读存储介质 |
CN114416196B (zh) * | 2021-12-24 | 2023-03-03 | 深圳开源互联网安全技术有限公司 | 一种多服务级联启动方法、装置及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109408062A (zh) | 一种自动部署模型训练环境的方法和装置 | |
CN105487864B (zh) | 代码自动生成的方法和装置 | |
CN103279373B (zh) | 浏览器外壳功能的更新方法及装置 | |
De Andrade et al. | Cross platform app: a comparative study | |
De Farias et al. | COMFIT: A development environment for the Internet of Things | |
US11531529B2 (en) | Method and electronic device for deploying operator in deep learning framework | |
CN111339455A (zh) | 浏览器应用加载页面首屏的方法和装置 | |
CN105893014A (zh) | 用于前端的项目开发方法及系统 | |
CN106471476A (zh) | 用于对经优化代码的编辑并继续以及增强的经优化调试的技术 | |
US20170286068A1 (en) | Development support system | |
CN102696012A (zh) | 从代码使用中创建所推断的符号 | |
CN104407863A (zh) | 抽象控件模型编程装置和方法 | |
CN102262684A (zh) | 移动终端网页页面生成方法及装置 | |
KR20180019158A (ko) | 동적 이미지를 프리뷰하기 위한 방법 및 디바이스, 그리고 표현 패키지를 디스플레이하기 위한 방법 및 디바이스 | |
KR20130017337A (ko) | 하이브리드 앱 개발 플랫폼 구조 및 그 테스트 방법, 그리고 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체. | |
CN111338925A (zh) | 小程序测试方法及装置、系统、电子设备和存储介质 | |
Mahesh et al. | Portability of mobile applications using phonegap: A case study | |
US10387124B2 (en) | System and method for creating domain specific language | |
CN108563488A (zh) | 模型训练方法及装置、构建容器镜像的方法及装置 | |
WO2023213263A1 (zh) | 程序编译和启动方法、设备及存储介质 | |
Vaupel et al. | Agile Bottom-Up Development of Domain-Specific IDEs for Model-Driven Development. | |
CN104133706B (zh) | 固件修改方法及固件修改装置 | |
CN104915199B (zh) | 一种将Flash项目转换为Html5项目的方法与装置 | |
CN109739772A (zh) | 一种实现cpld刷新自动测试的方法和装置 | |
CN109344082A (zh) | 一种自动测试寄存器的方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190301 |