CN109634736A - 深度学习系统中数据训练方法和装置 - Google Patents

深度学习系统中数据训练方法和装置 Download PDF

Info

Publication number
CN109634736A
CN109634736A CN201811560070.7A CN201811560070A CN109634736A CN 109634736 A CN109634736 A CN 109634736A CN 201811560070 A CN201811560070 A CN 201811560070A CN 109634736 A CN109634736 A CN 109634736A
Authority
CN
China
Prior art keywords
data training
data
configuration file
configuration
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811560070.7A
Other languages
English (en)
Inventor
李铭琨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou Yunhai Information Technology Co Ltd
Original Assignee
Zhengzhou Yunhai Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou Yunhai Information Technology Co Ltd filed Critical Zhengzhou Yunhai Information Technology Co Ltd
Priority to CN201811560070.7A priority Critical patent/CN109634736A/zh
Publication of CN109634736A publication Critical patent/CN109634736A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种深度学习系统中数据训练方法和装置。所述方法包括:获取深度学习系统中执行数据训练操作所需的配置参数;按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件;向任务分配中心发送数据训练任务,携带所述配置文件。

Description

深度学习系统中数据训练方法和装置
技术领域
本申请涉及信息处理领域,尤指一种深度学习系统中数据训练方法和装置。
背景技术
在人工智能时代,深度学习作为一种强有力的技术已经开始改变我们生活的方方面面。在深度学习中,深度学习的框架作为支持深度学习的基石,承担了深度学习的运行任务。
Mxnet作为一个流行的深度学习框架,是亚马逊(Amazon)选择的深度学习库。它拥有类似于Theano和TensorFlow的数据流图,为多GPU配置提供了良好的配置,有着类似于Lasagne和Blocks更高级别的模型构建块,并且可以在可以想象的任何硬件上运行(包括手机)。对Python的支持只是其冰山一角,mxnet同样提供了对R、Julia、C++、Scala、Matlab,和Javascript的接口。众多的使用者不断贡献自己的代码让框架注入了源源不断的活力。
随着深度学习训练规模的不断增大,训练时需要的机器数量也不断增大,如何解决了众多的机器的训练问题成为了提升训练效率的关键。
发明内容
为了解决上述技术问题,本申请提供了一种深度学习系统中数据训练方法和装置,能够提高深度学习系统中数据训练操作的效率。
为了达到本申请目的,本申请提供了一种深度学习系统中数据训练方法,包括:
获取深度学习系统中执行数据训练操作所需的配置参数;
按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件;
向任务分配中心发送数据训练任务,携带所述配置文件。
在一个示例性实施例中,所述执行数据训练操作所需的配置参数包括如下至少一个:
输入数据集的存储路径、训练数据集的文件名称、验证数据集的文件名称、测试数据集的文件名称、使用GPU的个数信息以及是否使用梯度float16量化的配置信息。
在一个示例性实施例中,所述向任务分配中心发送数据训练任务,携带所述配置文件之后,所述方法还包括:
接收所述任务分配中心发送的数据训练结果;或者,
接收所述任务分配中心发送的数据训练结果,并根据所述数据训练结果,生成对所述配置参数的更新管理请求。
在一个示例性实施例中,所述按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件之后,所述方法还包括:
在接收对配置参数的更新管理请求后,根据所述更新管理请求对所述配置文件进行更新,得到更新后的配置文件;
发送所述更新后的配置文件至所述任务分配中心中。
为了达到本申请目的,本申请提供了一种深度学习系统中数据训练方法,包括:
获取深度学习系统的数据训练任务,携带所述数据训练任务的配置文件;
向数据训练系统发送所述配置文件,其中所述数据训练系统采用分布式架构;
接收所述数据训练系统根据所述配置文件反馈的数据训练结果;
发送所述数据训练结果。
为了达到本申请目的,本申请提供了一种深度学习系统中数据训练装置,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器调用所述存储器中的计算机程序以实现如下操作,包括:
获取深度学习系统中执行数据训练操作所需的配置参数;
按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件;
向任务分配中心发送数据训练任务,携带所述配置文件。
在一个示例性实施例中,所述处理器调用所述存储器中的计算机程序以实现获取深度学习系统中执行数据训练操作所需的配置参数操作时,所述执行数据训练操作所需的配置参数包括如下至少一个:
输入数据集的存储路径、训练数据集的文件名称、验证数据集的文件名称、测试数据集的文件名称、使用GPU的个数信息以及是否使用梯度float16量化的配置信息。
在一个示例性实施例中,所述处理器调用所述存储器中的计算机程序以实现向任务分配中心发送数据训练任务,携带所述配置文件操作之后,所述处理器调用所述存储器中的计算机程序以实现如下操作,还包括:
接收所述任务分配中心发送的数据训练结果;或者,
接收所述任务分配中心发送的数据训练结果,并根据所述数据训练结果,生成对所述配置参数的更新管理请求。
在一个示例性实施例中,所述述处理器调用所述存储器中的计算机程序以实现按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件操作之后,所述处理器调用所述存储器中的计算机程序以实现如下操作,还包括:
在接收对配置参数的更新管理请求后,根据所述更新管理请求对所述配置文件进行更新,得到更新后的配置文件;
发送所述更新后的配置文件至所述任务分配中心中。
为了达到本申请目的,本申请提供了一种深度学习系统中数据训练装置,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器调用所述存储器中的计算机程序以实现如下操作,包括:
获取深度学习系统的数据训练任务,携带所述数据训练任务的配置文件;
向数据训练系统发送所述配置文件,其中所述数据训练系统采用分布式架构;
接收所述数据训练系统根据所述配置文件反馈的数据训练结果;
发送所述数据训练结果。
本申请提供的实施例,获取深度学习系统中执行数据训练操作所需的配置参数,按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件,向任务分配中心发送数据训练任务,携带所述配置文件,实现根据统一的配置文件触发数据训练操作的目的,减少手动输入配置参数的成本,提高数据训练操作的效率。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本申请技术方案的进一步理解,并且构成说明书的一部分,与本申请的实施例一起用于解释本申请的技术方案,并不构成对本申请技术方案的限制。
图1为本申请提供的一种深度学习系统中数据训练方法的流程图;
图2为本申请提供的另一种深度学习系统中数据训练方法的流程图;
图3为本申请提供的基于mxnet的深度学习分布式训练系统的示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下文中将结合附图对本申请的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1为本申请提供的一种深度学习系统中数据训练方法的流程图。图1所示方法包括:
步骤101、获取深度学习系统中执行数据训练操作所需的配置参数;
在一个示例性实施例中,所述执行数据训练操作所需的配置参数包括如下至少一个:
输入数据集的存储路径、训练数据集的文件名称、验证数据集的文件名称、测试数据集的文件名称、使用GPU的个数信息以及是否使用梯度float16量化的配置信息。
步骤102、按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件;
按照预先设置的生成策略,将一个或至少两个配置参数,整合至一个配置文件中,以供后续使用,减少每次手动输入的时间,提高配置信息的输入操作的效率;
步骤103、向任务分配中心发送数据训练任务,携带所述配置文件。
通过将配置文件发送至任务分配中心,实现由任务分配中心根据所述配置文件下发数据训练操作的目的。
本申请提供的方法实施例,获取深度学习系统中执行数据训练操作所需的配置参数,按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件,向任务分配中心发送数据训练任务,携带所述配置文件,实现根据统一的配置文件触发数据训练操作的目的,减少手动输入配置参数的成本,提高数据训练操作的效率。
下面对本申请提供的方法作进一步说明:
在一个示例性实施例中,所述向任务分配中心发送数据训练任务,携带所述配置文件之后,所述方法还包括:
接收所述任务分配中心发送的数据训练结果;或者,
接收所述任务分配中心发送的数据训练结果,并根据所述数据训练结果,生成对所述配置参数的更新管理请求。
在本示例性实施例中,通过任务分配中心下发数据训练任务后,接收所述数据训练结果;或者,在接收到数据训练结果后,根据所述训练结果,对配置文件中的配置参数进行调整,以便及时修正和调整数据训练任务。
在一个示例性实施例中,所述按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件之后,所述方法还包括:
在接收对配置参数的更新管理请求后,根据所述更新管理请求对所述配置文件进行更新,得到更新后的配置文件;
发送所述更新后的配置文件至所述任务分配中心中。
在本示例性实施例中,配置参数的管理请求可以是本地根据数据训练结果得到的,或者,可以是外部输入的参数;在接收到配置参数的管理请求后,再次生成新的配置文件,其中新的配置文件可以是包括全部信息的配置文件,或者,可以是仅包括发生变更前后的配置参数的信息;在得到新的配置文件后,将更新后的配置文件发送至任务分配中心,以便对数据训练任务进行更新。
图2为本申请提供的另一种深度学习系统中数据训练方法的流程图。图2所示方法包括:
步骤201、获取深度学习系统的数据训练任务,携带所述数据训练任务的配置文件;
在一个示例性实施例中,所述执行数据训练操作所需的配置参数包括如下至少一个:
输入数据集的存储路径、训练数据集的文件名称、验证数据集的文件名称、测试数据集的文件名称、使用GPU的个数信息以及是否使用梯度float16量化的配置信息。
步骤202、向数据训练系统发送所述配置文件,其中所述数据训练系统采用分布式架构;
在本示例性实施例中,基于分布式系统的架构特点,通过配置文件进行数据训练任务的配置文件的分发,实现对数据训练任务的快速部署和快速启动,节省任务的处理时间;
步骤203、接收所述数据训练系统根据所述配置文件反馈的数据训练结果;
可以设置固定时间所述数据训练系统反馈数据训练结果,或者,设置在数据训练结果达到预设的条件时分布式系统反馈数据训练结果;
步骤204、发送所述数据训练结果。
在本示例性实施例中,所述数据训练结果可以是在接收到数据训练系统反馈的部分结果时就发送,或者,在收到全部结果时,再发送。
本申请提供的方法实施例,获取深度学习系统的数据训练任务,携带所述数据训练任务的配置文件,向数据训练系统发送所述配置文件,其中所述数据训练系统采用分布式架构,并接收所述数据训练系统根据所述配置文件反馈的数据训练结果,发送所述数据训练结果,实现根据统一的配置文件触发数据训练操作的目的,减少手动输入配置参数的成本,提高数据训练操作的效率。另外,通过分布式系统执行数据训练操作,可以提高数据处理速度,提高数据训练操作的效率。
下面对本申请提供的方法进行说明:
本申请的目的就是给深度学习的使用者提供一个快速部署、快速启动训练任务的装置,以便更好的进行深度学习的训练。
图3为本申请提供的基于mxnet的深度学习分布式训练系统的示意图。如图3所示,本申请使得在使用mxnet作为深度学习框架时并且在分布式系统上进行训练时,能够自动化、简易、快速的进行部署,避免了手动部署的繁琐及可能存在的失误。
本申请包括装置包括参数采集装置、参数整合装置和任务部署装置。其中:
参数采集装置会提供提示使用者输入相关的参数,并将参数进行收集;
在收集到参数之后参数采集将参数传输到参数整合装置,参数整合装置将参数整合生成配置文件;
任务部署装置将生成的配置文件和即将运行的深度学习程序在整个分布式系统上进行分发。
在基于上述系统中,本申请提供的基于mxnet的深度学习分布式训练方法,包括:
步骤1、当用户需要使用mxnet的分布式应用的时候需要将参数输入这时参数采集装置将启动,对用户的参数进行收集;例如:data_url(输入数据集路径),train_file(训练数据集文件名称),val_file(验证数据集文件名称),num_gpus(使用GPU个数),use_fp16_gradient(是否使用梯度float16量化)等。
步骤2、在参数采集装置采集到了参数之后,参数采集装置将把参数传输到参数整理装置。这时参数整理装置将把采集到的参数按指定的要求生产配置文件;
步骤3、将生成的配置文件将传输到任务部署装置,任务部署装置连同运行的深度学习程序一起分发到分布式系统上,实现自动化的部署任务;
本申请提供的方法实施例,应用深度学习中的分布式系统的任务部署,通过本方法进行分布式任务部署可以更加快速便捷的进行深度学习分布式任务的部署,提高数据训练任务的效率。
本申请提供了一种深度学习系统中数据训练装置,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器调用所述存储器中的计算机程序以实现如下操作,包括:
获取深度学习系统中执行数据训练操作所需的配置参数;
按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件;
向任务分配中心发送数据训练任务,携带所述配置文件。
在一个示例性实施例中,所述处理器调用所述存储器中的计算机程序以实现获取深度学习系统中执行数据训练操作所需的配置参数操作时,所述执行数据训练操作所需的配置参数包括如下至少一个:
输入数据集的存储路径、训练数据集的文件名称、验证数据集的文件名称、测试数据集的文件名称、使用GPU的个数信息以及是否使用梯度float16量化的配置信息。
在一个示例性实施例中,所述处理器调用所述存储器中的计算机程序以实现向任务分配中心发送数据训练任务,携带所述配置文件操作之后,所述处理器调用所述存储器中的计算机程序以实现如下操作,还包括:
接收所述任务分配中心发送的数据训练结果;或者,
接收所述任务分配中心发送的数据训练结果,并根据所述数据训练结果,生成对所述配置参数的更新管理请求。
在一个示例性实施例中,所述述处理器调用所述存储器中的计算机程序以实现按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件操作之后,所述处理器调用所述存储器中的计算机程序以实现如下操作,还包括:
在接收对配置参数的更新管理请求后,根据所述更新管理请求对所述配置文件进行更新,得到更新后的配置文件;
发送所述更新后的配置文件至所述任务分配中心中。
本发明提供的装置,获取深度学习系统中执行数据训练操作所需的配置参数,按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件,向任务分配中心发送数据训练任务,携带所述配置文件,实现根据统一的配置文件触发数据训练操作的目的,减少手动输入配置参数的成本,提高数据训练操作的效率。
本申请提供了一种深度学习系统中数据训练装置,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器调用所述存储器中的计算机程序以实现如下操作,包括:
获取深度学习系统的数据训练任务,携带所述数据训练任务的配置文件;
向数据训练系统发送所述配置文件,其中所述数据训练系统采用分布式架构;
接收所述数据训练系统根据所述配置文件反馈的数据训练结果;
发送所述数据训练结果。
本申请提供的方法实施例,获取深度学习系统的数据训练任务,携带所述数据训练任务的配置文件,向数据训练系统发送所述配置文件,其中所述数据训练系统采用分布式架构,并接收所述数据训练系统根据所述配置文件反馈的数据训练结果,发送所述数据训练结果,实现根据统一的配置文件触发数据训练操作的目的,减少手动输入配置参数的成本,提高数据训练操作的效率。另外,通过分布式系统执行数据训练操作,可以提高数据处理速度,提高数据训练操作的效率。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些组件或所有组件可以被实施为由处理器,如数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。

Claims (10)

1.一种深度学习系统中数据训练方法,其特征在于,包括:
获取深度学习系统中执行数据训练操作所需的配置参数;
按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件;
向任务分配中心发送数据训练任务,携带所述配置文件。
2.根据权利要求1所述的方法,其特征在于,所述执行数据训练操作所需的配置参数包括如下至少一个:
输入数据集的存储路径、训练数据集的文件名称、验证数据集的文件名称、测试数据集的文件名称、使用GPU的个数信息以及是否使用梯度float16量化的配置信息。
3.根据权利要求1所述的方法,其特征在于,所述向任务分配中心发送数据训练任务,携带所述配置文件之后,所述方法还包括:
接收所述任务分配中心发送的数据训练结果;或者,
接收所述任务分配中心发送的数据训练结果,并根据所述数据训练结果,生成对所述配置参数的更新管理请求。
4.根据权利要求1至3任一所述的方法,其特征在于,所述按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件之后,所述方法还包括:
在接收对配置参数的更新管理请求后,根据所述更新管理请求对所述配置文件进行更新,得到更新后的配置文件;
发送所述更新后的配置文件至所述任务分配中心中。
5.一种深度学习系统中数据训练方法,其特征在于,包括:
获取深度学习系统的数据训练任务,携带所述数据训练任务的配置文件;
向数据训练系统发送所述配置文件,其中所述数据训练系统采用分布式架构;
接收所述数据训练系统根据所述配置文件反馈的数据训练结果;
发送所述数据训练结果。
6.一种深度学习系统中数据训练装置,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器调用所述存储器中的计算机程序以实现如下操作,包括:
获取深度学习系统中执行数据训练操作所需的配置参数;
按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件;
向任务分配中心发送数据训练任务,携带所述配置文件。
7.根据权利要求6所述的装置,其特征在于,所述处理器调用所述存储器中的计算机程序以实现获取深度学习系统中执行数据训练操作所需的配置参数操作时,所述执行数据训练操作所需的配置参数包括如下至少一个:
输入数据集的存储路径、训练数据集的文件名称、验证数据集的文件名称、测试数据集的文件名称、使用GPU的个数信息以及是否使用梯度float16量化的配置信息。
8.根据权利要求6所述的装置,其特征在于,所述处理器调用所述存储器中的计算机程序以实现向任务分配中心发送数据训练任务,携带所述配置文件操作之后,所述处理器调用所述存储器中的计算机程序以实现如下操作,还包括:
接收所述任务分配中心发送的数据训练结果;或者,
接收所述任务分配中心发送的数据训练结果,并根据所述数据训练结果,生成对所述配置参数的更新管理请求。
9.根据权利要求6至8任一所述的装置,其特征在于,所述述处理器调用所述存储器中的计算机程序以实现按照预先设置的生成策略,利用所述配置参数,生成用于按照所述配置参数执行数据训练操作的配置文件操作之后,所述处理器调用所述存储器中的计算机程序以实现如下操作,还包括:
在接收对配置参数的更新管理请求后,根据所述更新管理请求对所述配置文件进行更新,得到更新后的配置文件;
发送所述更新后的配置文件至所述任务分配中心中。
10.一种深度学习系统中数据训练装置,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器调用所述存储器中的计算机程序以实现如下操作,包括:
获取深度学习系统的数据训练任务,携带所述数据训练任务的配置文件;
向数据训练系统发送所述配置文件,其中所述数据训练系统采用分布式架构;
接收所述数据训练系统根据所述配置文件反馈的数据训练结果;
发送所述数据训练结果。
CN201811560070.7A 2018-12-20 2018-12-20 深度学习系统中数据训练方法和装置 Pending CN109634736A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811560070.7A CN109634736A (zh) 2018-12-20 2018-12-20 深度学习系统中数据训练方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811560070.7A CN109634736A (zh) 2018-12-20 2018-12-20 深度学习系统中数据训练方法和装置

Publications (1)

Publication Number Publication Date
CN109634736A true CN109634736A (zh) 2019-04-16

Family

ID=66075730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811560070.7A Pending CN109634736A (zh) 2018-12-20 2018-12-20 深度学习系统中数据训练方法和装置

Country Status (1)

Country Link
CN (1) CN109634736A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110378464A (zh) * 2019-06-27 2019-10-25 苏州浪潮智能科技有限公司 人工智能平台的配置参数的管理方法和装置
CN110928553A (zh) * 2019-10-16 2020-03-27 中国平安人寿保险股份有限公司 深度学习模型的部署方法、装置和系统
CN111882056A (zh) * 2020-06-19 2020-11-03 苏州浪潮智能科技有限公司 一种基于副本模式的深度学习训练任务管控方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102665231A (zh) * 2012-05-23 2012-09-12 北京中创信测科技股份有限公司 一种lte系统自动生成参数配置文件的方法
CN106529673A (zh) * 2016-11-17 2017-03-22 北京百度网讯科技有限公司 基于人工智能的深度学习网络训练方法及装置
CN107330522A (zh) * 2017-07-04 2017-11-07 北京百度网讯科技有限公司 用于更新深度学习模型的方法、装置及系统
CN108566287A (zh) * 2018-01-08 2018-09-21 福建星瑞格软件有限公司 一种基于深度学习的集群服务器运维优化方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102665231A (zh) * 2012-05-23 2012-09-12 北京中创信测科技股份有限公司 一种lte系统自动生成参数配置文件的方法
CN106529673A (zh) * 2016-11-17 2017-03-22 北京百度网讯科技有限公司 基于人工智能的深度学习网络训练方法及装置
CN107330522A (zh) * 2017-07-04 2017-11-07 北京百度网讯科技有限公司 用于更新深度学习模型的方法、装置及系统
CN108566287A (zh) * 2018-01-08 2018-09-21 福建星瑞格软件有限公司 一种基于深度学习的集群服务器运维优化方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110378464A (zh) * 2019-06-27 2019-10-25 苏州浪潮智能科技有限公司 人工智能平台的配置参数的管理方法和装置
CN110378464B (zh) * 2019-06-27 2021-11-26 苏州浪潮智能科技有限公司 人工智能平台的配置参数的管理方法和装置
CN110928553A (zh) * 2019-10-16 2020-03-27 中国平安人寿保险股份有限公司 深度学习模型的部署方法、装置和系统
CN111882056A (zh) * 2020-06-19 2020-11-03 苏州浪潮智能科技有限公司 一种基于副本模式的深度学习训练任务管控方法及装置
CN111882056B (zh) * 2020-06-19 2022-07-08 苏州浪潮智能科技有限公司 一种基于副本模式的深度学习训练任务管控方法及装置

Similar Documents

Publication Publication Date Title
CN109634736A (zh) 深度学习系统中数据训练方法和装置
CN107229966B (zh) 一种模型数据更新方法、装置及系统
CN107398072B (zh) 游戏画面的显示方法和装置
CN110502340A (zh) 一种资源动态调整方法、装置、设备及存储介质
CN104091287B (zh) 一种基于数据驱动的任务实现方法及装置
CN102662679B (zh) 个性化用户界面实现方法及装置
CN106529673A (zh) 基于人工智能的深度学习网络训练方法及装置
CN109146084A (zh) 一种基于云计算的机器学习的方法及装置
CN109272116A (zh) 一种深度学习的方法及装置
CN105138371B (zh) 软件升级方法及装置
CN108664651A (zh) 一种图案推荐方法、装置及存储介质
US20220100763A1 (en) Optimizing job runtimes via prediction-based token allocation
CN109710854A (zh) 社交应用中推荐用户的方法和装置
CN107315586A (zh) 应用打包的方法、装置和系统
CN106020944A (zh) 一种基于后台数据库配置进行数据下载的方法和系统
CN104657164B (zh) 软件升级处理方法和装置
CN103581273B (zh) 一种分布式系统执行业务的方法、装置及系统
CN102999344A (zh) 一种智能终端及其用户自定义操作集的方法和装置
WO2015088557A1 (en) Data stream processing based on a boundary parameter
CN104219312B (zh) 一种安装程序的方法及装置
CN103559063A (zh) 应用程序的更新方法、系统及应用程序系统和参数据配置系统
CN105721211A (zh) 一种数据处理的方法及装置
CN104090809B (zh) 一种图片加载方法及装置
CN104636397B (zh) 用于分布式计算的资源分配方法、计算加速方法以及装置
CN106549786A (zh) 一种业务开通资源的配置方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190416

RJ01 Rejection of invention patent application after publication