CN111401567A - 一种通用的深度学习超参优化方法及装置 - Google Patents

一种通用的深度学习超参优化方法及装置 Download PDF

Info

Publication number
CN111401567A
CN111401567A CN202010201014.5A CN202010201014A CN111401567A CN 111401567 A CN111401567 A CN 111401567A CN 202010201014 A CN202010201014 A CN 202010201014A CN 111401567 A CN111401567 A CN 111401567A
Authority
CN
China
Prior art keywords
parameter
optimization
hyper
super
parameter optimization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010201014.5A
Other languages
English (en)
Inventor
洪万福
王彬
赵靑欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Yuanting Information Technology Co ltd
Original Assignee
Xiamen Yuanting Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Yuanting Information Technology Co ltd filed Critical Xiamen Yuanting Information Technology Co ltd
Priority to CN202010201014.5A priority Critical patent/CN111401567A/zh
Publication of CN111401567A publication Critical patent/CN111401567A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供了一种通用的深度学习超参优化方法及装置,涉及人工智能和自动深度学习领域。包括,超参优化客户端,用于提交优化请求;超参优化服务门户,用于接收客户端请求进行处理;学习引擎,用于对训练集进行模拟学习;超参推荐引擎,用于根据模拟学习结果进行超参推荐;效果评估组件,用于评估训练集各超参集合的效果及性能;优化算法配置组件,用于超参优化算法的配置;自动停止组件,用于停止无意义的训练集;超参优化控制面板,用于管理配置、调度监控等。本发明的有益效果为:实现优化,使用简单,降低深度学习调参的门槛;引入新算法时可以快速适配优化;高可用性和高扩展性;内置最先进的超参优化算法,适合大规模应用。

Description

一种通用的深度学习超参优化方法及装置
技术领域
本发明属于人工智能和自动深度学习领域,具体涉及一种通用的深度学习超参优化方法及装置。
背景技术
随着这几年新一波人工智能浪潮的到来,深度学习相关技术被应用到诸多行业和领域。调参是深度学习中非常重要的一个环节,深度学习模型应用的成功离不开好的调参。对于调参,目前行业大多做法是用人工的方式就行不断调整尝试,直至找到满意的参数为止。这种方式有诸多弊端,第一是耗费大量的人工成本,而且带有很大的主观性,可解释性低;第二是针对不同的算法,需要用不同的调参方法,特别是面对新算法时需要做大量的工作。为了解决这些弊端,行业出现了自动化深度学习(AutoML)的技术,其中包括Hyperopt等方案,在一定程度上实现了自动调参的目标。当然,这些方案也存在一些缺点,例如伸缩性和灵活性比较低,部分方案都是以第三方库的形式提供服务,需要大量的手工代码和工程实施来进行模拟验证,无法实现真正意义上的完全自动调参。
发明内容
为了解决这些问题,在自动化深度学习的领域往前更进一步,实现通用的自动调参方案,用户无需关心优化器的具体实现,达到用户和优化器耦合度最低、灵活性和伸缩性最高的目的。本发明提供了一种通用的深度学习超参优化方法及装置。
本发明采用以下技术方案:
一种通用的深度学习超参优化方法及装置,包括:超参优化客户端、超参优化服务器端、超参优化服务门户、学习引擎、超参推荐引擎、效果评估组件、优化算法配置组件、自动停止组件、超参优化控制面板,其中:
所述超参优化客户端用于封装用户深度学习过程的相关资源(包括数据、模型、算法、参数等),并提交到超参优化服务器进行处理;
所述超参优化服务器端用于接收客户端的请求,进行超参优化工作,同时提供一些超参优化需要的配置项管理和模拟验证等功能;
所述超参优化服务门户用于集中接收客户端请求,根据客户端请求的类型,使用合适的服务组件进行处理并响应请求;
所述学习引擎用于对用户提交的资源进行模拟学习;
所述超参推荐引擎用于根据模拟学习的结果进行超参推荐;
所述效果评估组件用于对推荐的超参进行验证训练,评估其应用效果以及性能;
所述优化算法配置组件用于进行超参优化算法的配置;
所述自动停止组件用于对正在训练的深度学习过程进行自动停止;
所述超参优化控制面板用于管理包括客户端请求情况、参数模拟评估对比可视化、模拟学习情况等信息。
优选地,所述超参优化客户端还包括:用户将需要进行处理的请求进行封装,以一个深度学习超参优化为例,用户需要封装两部分信息:第一是这个深度学习的元信息,包括唯一性ID、名称、描述、创建人、创建时间、权限等;第二是该深度学习涉及的资源,包括:训练数据集、训练管道模型(可选)、算法类型(逻辑回归、分类等)、评估器(可选)、参数集合、参数选项(缩放比例等)。除了深度学习超参优化外,客户端还支持发送状态更新、参数推荐、添加衡量指标、结束优化、获取评估结果等请求。
优选地,所述参数集合支持范围为{MIN,MAX}的多类型优化目标,参数类型包括但不仅限于:DOUBLE(双精度浮点型)、LONG(长整型)、INTEGER(整型)、DISCRETE(离散型)、CATEGORICAL(分类型)。
优选地,所述超参优化服务器端除了包括超参优化服务门户、学习引擎、超参推荐引擎、效果评估组件、优化算法配置组件、自动停止组件、超参优化控制面板外,还包括分布式集群管理、分布式模拟训练、任务调度、数据资源管理等。
优选地,所述超参优化服务门户支持客户端使用REST API和RPC两种协议进行访问,支持XML、JSON、ProtoBuf三种数据序列化协议,支持同步处理和异步处理两种方式,对于服务器端需要长时间处理的请求,门户会自动转为异步处理,用户可以通过状态更新或其他操作查询处理结果。
优选地,所述学习引擎还包括组合用户提供的资源,当用户没有明确指定训练管道时,自动生成对应的训练管道,将数据进行适当的拆分,使用系统配置的优化方法进行模拟训练,将各个训练结果数据进行对比,并获取最佳训练结果相关参数,存储到数据库中。
优选地,所述超参推荐引擎支持客户端发送深度学习唯一性ID来获取最佳超参数,同时支持增加TOP N参数来获取排名前N的最佳超参数列表以及它们的训练效果。
优选地,所述效果评估组件将训练结果进行对比分析,对比主要基于两大类型的指标:第一是算法指标,包括准确率、召回率、F1值、AUC、混淆矩阵等;第二是性能指标,包括总体耗费时间、迭代耗费时间、CPU使用率、GPU使用率、内存消耗、硬盘IO、网络IO等。这些指标的交叉对比结果都可以通过可视化界面进行展示。
优选地,所述优化算法配置组件还包括内置优化算法和用户自定义优化算法两种类型,其中内置算法包括贝叶斯优化、高斯过程、网格搜索、随机搜索等,用户自定义算法则支持以插件的方式进行维护。
优选地,所述自动停止组件用于停止预计效果比较差的训练集,将资源让给预计效果比较好的训练集,自动停止常用的算法是根据训练过程的性能曲线来预测。
优选地,所述超参优化控制面板还包括用户管理、权限管理、系统设置等基本功能。
优选地,优化中的“”表示用户无需关注超参服务器具体的算法实现和上下文,只需用户遵守一定约定,就可以进行通用的超参优化工作。
采用上述技术方案后,本发明与背景技术相比,具有如下优点:
第一,跨深度学习平台优化,用户无需关注超参优化器的实现,具备更广的应用范围;第二,当用户引入新算法时也可以快速进行适配优化;第三,高可用性和高扩展性,在大规模应用时,只需扩展超参服务器端的训练节点即可,用户端无需任何调整;第四,使用简单,降低深度学习调参的门槛;第五,内置最先进的超参优化算法,可直接投入生产使用。
附图说明
图1为本发明的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例
参考图1所示,本发明公开了一种通用的深度学习超参优化方法及装置,包括超参优化客户端、超参优化服务器端、超参优化服务门户、学习引擎、超参推荐引擎、效果评估组件、优化算法配置组件、自动停止组件、超参优化控制面板。超参优化实施方式如下所示:
步骤1、用户使用客户端封装超参优化相关资源,发送请求到服务器端服务门户,发送的请求数据格式例子如下:
{
"reqtype":"create-study",
"id":"090dda88-1b16-4476-8255-f0c075aaf30a",
"name":"mnist-keras-opt",
"owner":"dataexa",
"updatedate":"2017-05-12",
"goal": "MAXIMIZE",
"parameters": [
{
"name": "learning_rate",
"type": "DOUBLE",
"minValue": 0.01,
"maxValue": 0.5,
"scallingType": "LINEAR"
},
{
"name": "optimizer",
"type": "CATEGORICAL",
"values": "SGD,RMSprop,Adagrad,Adam,Nadam"
}
]
}
步骤2、服务器端服务门户接收对应的请求,启用异步处理机制,将请求转发给学习引擎进行调度处理,同时返回给客户端调度处理的流水号以及状态信息(是否启动成功);
步骤3、学习引擎调用优化算法配置组件和效果评估组件,完成模拟训练过程;
步骤4、用户使用客户端发送超参推荐请求到服务器端服务门户,服务门户查询对应深度学习唯一性ID的状态,如果已经完成,则返回最佳超参数;如果还未完成,则返回训练情况。发送请求的数据格式例子如下:
{
"reqtype":"get-suggestion",
"id":"090dda88-1b16-4476-8255-f0c075aaf30a"
}
步骤5、用户使用客户端发送自动停止请求到服务器端服务门户,服务门户将请求转发给学习引擎,学习引擎根据停止规则停止对应的训练集,总体训练保持继续。发送请求的数据格式例子如下:
{
"reqtype":"stop-trial",
"id":"090dda88-1b16-4476-8255-f0c075aaf30a"
}
步骤6、用户可以通过超参优化控制面板查看步骤2-步骤5(包含步骤2和步骤5)所有过程产生的结果和中间信息;
步骤7、用户可以通过超参优化控制面板自定义一些优化器来满足一些特定的新算法优化需求,自定义完成后重复步骤1-步骤6即可。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (13)

1.一种通用的深度学习超参优化方法及装置,其特征在于,包括:超参优化客户端、超参优化服务器端、超参优化服务门户、学习引擎、超参推荐引擎、效果评估组件、优化算法配置组件、自动停止组件、超参优化控制面板,其中:
所述超参优化客户端用于封装用户深度学习过程的相关资源(包括数据、模型、算法、参数等),并提交到超参优化服务器进行处理;
所述超参优化服务器端用于接收客户端的请求,进行超参优化工作,同时提供一些超参优化需要的配置项管理和模拟验证等功能;
所述超参优化服务门户用于集中接收客户端请求,根据客户端请求的类型,使用合适的服务组件进行处理并响应请求;
所述学习引擎用于对用户提交的资源进行模拟学习;
所述超参推荐引擎用于根据模拟学习的结果进行超参推荐;
所述效果评估组件用于对推荐的超参进行验证训练,评估其应用效果以及性能;
所述优化算法配置组件用于进行超参优化算法的配置;
所述自动停止组件用于对正在训练的深度学习过程进行自动停止;
所述超参优化控制面板用于管理包括客户端请求情况、参数模拟评估对比可视化、模拟学习情况等信息。
2.如权利要求1所述的一种通用的深度学习超参优化方法及装置,其特征在于:所述超参优化客户端还包括:用户将需要进行处理的请求进行封装,以一个深度学习超参优化为例,用户需要封装两部分信息:第一是这个深度学习的元信息,包括唯一性ID、名称、描述、创建人、创建时间、权限等;第二是该深度学习涉及的资源,包括:训练数据集、训练管道模型(可选)、算法类型(逻辑回归、分类等)、评估器(可选)、参数集合、参数选项(缩放比例等);
除了深度学习超参优化外,客户端还支持发送状态更新、参数推荐、添加衡量指标、结束优化、获取评估结果等请求。
3.如权利要求2所述的一种通用的深度学习超参优化方法及装置,参数集合支持范围为{MIN,MAX}的多类型优化目标,参数类型包括但不仅限于:DOUBLE(双精度浮点型)、LONG(长整型)、INTEGER(整型)、DISCRETE(离散型)、CATEGORICAL(分类型)。
4.如权利要求1所述的一种通用的深度学习超参优化方法及装置,其特征在于:所述超参优化服务器端除了包括超参优化服务门户、学习引擎、超参推荐引擎、效果评估组件、优化算法配置组件、自动停止组件、超参优化控制面板外,还包括分布式集群管理、分布式模拟训练、任务调度、数据资源管理等。
5.如权利要求1所述的一种通用的深度学习超参优化方法及装置,其特征在于:
所述超参优化服务门户支持客户端使用REST和RPC两种协议进行访问,支持XML、JSON、ProtoBuf三种数据序列化协议,支持同步处理和异步处理两种方式,对于服务器端需要长时间处理的请求,门户会自动转为异步处理,用户可以通过状态更新或其他操作查询处理结果。
6.如权利要求1所述的一种通用的深度学习超参优化方法及装置,其特征在于:所述学习引擎还包括组合用户提供的资源,当用户没有明确指定训练管道时,自动生成对应的训练管道,将数据进行适当的拆分,使用系统配置的优化方法进行模拟训练,将各个训练结果数据进行对比,并获取最佳训练结果相关参数,存储到数据库中。
7.如权利要求1或2所述的一种通用的深度学习超参优化方法及装置,其特征在于:所述超参推荐引擎支持客户端发送深度学习唯一性ID来获取最佳超参数,同时支持增加TOPN参数来获取排名前N的最佳超参数列表以及它们的训练效果。
8.如权利要求1所述的一种通用的深度学习超参优化方法及装置,其特征在于:所述效果评估组件将训练结果进行对比分析,对比主要基于两大类型的指标:第一是算法指标,包括准确率、召回率、F1值、AUC、混淆矩阵等;第二是性能指标,包括总体耗费时间、迭代耗费时间、CPU使用率、GPU使用率、内存消耗、硬盘IO、网络IO等;
这些指标的交叉对比结果都可以通过可视化界面进行展示。
9.如权利要求1所述的一种通用的深度学习超参优化方法及装置,其特征在于:所述优化算法配置组件还包括内置优化算法和用户自定义优化算法两种类型,其中内置算法包括贝叶斯优化、高斯过程、网格搜索、随机搜索等,用户自定义算法则支持以插件的方式进行维护。
10.如权利要求1所述的一种通用的深度学习超参优化方法及装置,其特征在于:所述自动停止组件用于停止预计效果比较差的训练集,将资源让给预计效果比较好的训练集,自动停止常用的算法是根据训练过程的性能曲线来预测。
11.如权利要求1所述的一种通用的深度学习超参优化方法及装置,其特征在于:所述超参优化控制面板还包括用户管理、权限管理、系统设置等基本功能。
12.如权利要求1所述的一种通用的深度学习超参优化方法及装置,其特征在于:优化中的“”表示用户无需关注超参服务器具体的算法实现和上下文,只需用户遵守一定约定,就可以进行通用的超参优化工作。
13.如权利要求1所述的一种通用的深度学习超参优化方法及装置,其特征在于,一个基本的超参优化过程包含如下步骤:
步骤1、用户使用客户端封装超参优化相关资源,发送请求到服务器端服务门户;
步骤2、服务器端服务门户接收对应的请求,启用异步处理机制,将请求转发给学习引擎进行调度处理,同时返回给客户端调度处理的流水号以及状态信息(是否启动成功);
步骤3、学习引擎调用优化算法配置组件和效果评估组件,完成模拟训练过程;
步骤4、用户使用客户端发送超参推荐请求到服务器端服务门户,服务门户查询对应深度学习唯一性ID的状态,如果已经完成,则返回最佳超参数;如果还未完成,则返回训练情况;
步骤5、用户使用客户端发送自动停止请求到服务器端服务门户,服务门户将请求转发给学习引擎,学习引擎根据停止规则停止对应的训练集,总体训练保持继续;
步骤6、用户可以通过超参优化控制面板查看步骤2-步骤5(包含步骤2和步骤5)所有过程产生的结果和中间信息;
步骤7、用户可以通过超参优化控制面板自定义一些优化器来满足一些特定的新算法优化需求,自定义完成后重复步骤1-步骤6即可。
CN202010201014.5A 2020-03-20 2020-03-20 一种通用的深度学习超参优化方法及装置 Pending CN111401567A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010201014.5A CN111401567A (zh) 2020-03-20 2020-03-20 一种通用的深度学习超参优化方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010201014.5A CN111401567A (zh) 2020-03-20 2020-03-20 一种通用的深度学习超参优化方法及装置

Publications (1)

Publication Number Publication Date
CN111401567A true CN111401567A (zh) 2020-07-10

Family

ID=71431096

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010201014.5A Pending CN111401567A (zh) 2020-03-20 2020-03-20 一种通用的深度学习超参优化方法及装置

Country Status (1)

Country Link
CN (1) CN111401567A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112463387A (zh) * 2020-12-07 2021-03-09 浙江工业大学 基于gpu时空资源消耗识别本地服务器上深度学习模型的方法
CN112529211A (zh) * 2021-02-05 2021-03-19 腾讯科技(深圳)有限公司 一种超参数确定方法、装置、计算机设备和存储介质
CN112966439A (zh) * 2021-03-05 2021-06-15 北京金山云网络技术有限公司 机器学习模型训练方法、装置以及虚拟实验箱

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446741A (zh) * 2018-03-29 2018-08-24 中国石油大学(华东) 机器学习超参数重要性评估方法、系统及存储介质
CN109447277A (zh) * 2018-10-19 2019-03-08 厦门渊亭信息科技有限公司 一种通用的机器学习超参黑盒优化方法及系统
US20190325307A1 (en) * 2018-04-20 2019-10-24 EMC IP Holding Company LLC Estimation of resources utilized by deep learning applications
CN110554995A (zh) * 2019-08-13 2019-12-10 武汉中海庭数据技术有限公司 一种深度学习模型的管理方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446741A (zh) * 2018-03-29 2018-08-24 中国石油大学(华东) 机器学习超参数重要性评估方法、系统及存储介质
US20190325307A1 (en) * 2018-04-20 2019-10-24 EMC IP Holding Company LLC Estimation of resources utilized by deep learning applications
CN109447277A (zh) * 2018-10-19 2019-03-08 厦门渊亭信息科技有限公司 一种通用的机器学习超参黑盒优化方法及系统
CN110554995A (zh) * 2019-08-13 2019-12-10 武汉中海庭数据技术有限公司 一种深度学习模型的管理方法及系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112463387A (zh) * 2020-12-07 2021-03-09 浙江工业大学 基于gpu时空资源消耗识别本地服务器上深度学习模型的方法
CN112463387B (zh) * 2020-12-07 2024-03-29 浙江工业大学 基于gpu时空资源消耗识别本地服务器上深度学习模型的方法
CN112529211A (zh) * 2021-02-05 2021-03-19 腾讯科技(深圳)有限公司 一种超参数确定方法、装置、计算机设备和存储介质
CN112529211B (zh) * 2021-02-05 2021-05-11 腾讯科技(深圳)有限公司 一种超参数确定方法、装置、计算机设备和存储介质
CN112966439A (zh) * 2021-03-05 2021-06-15 北京金山云网络技术有限公司 机器学习模型训练方法、装置以及虚拟实验箱

Similar Documents

Publication Publication Date Title
CN109447277B (zh) 一种通用的机器学习超参黑盒优化方法及系统
CN111401567A (zh) 一种通用的深度学习超参优化方法及装置
CN111176832B (zh) 基于内存计算框架Spark的性能优化和参数配置方法
JP4856627B2 (ja) 部分的クエリーキャッシング
Wu et al. A context-aware multiarmed bandit incentive mechanism for mobile crowd sensing systems
CN104063486B (zh) 一种大数据分布式存储方法和系统
CN103345508B (zh) 一种适用于社会网络图的数据存储方法及系统
US9348641B2 (en) System and method for performing a transaction in a massively parallel processing database
US20090118842A1 (en) Manufacturing prediction server
CN108369550B (zh) 实时更改来自不同源的数据
US20090119077A1 (en) Use of simulation to generate predictions pertaining to a manufacturing facility
US20130275410A1 (en) Live topological query
US20170359433A1 (en) Scalable management of composite data collected with varied identifiers
CN110457313A (zh) 一种应用配置管理方法、服务器及存储介质
CN102385629B (zh) 一种数据仓库中父子模型引申为网络模型的应用方法
CN107491463A (zh) 数据查询的优化方法和系统
CN116389270A (zh) 联邦学习中基于drl联合优化客户端选择和带宽分配的方法
CN114679283A (zh) 区块链数据请求处理方法、装置、服务器及存储介质
US20200293507A1 (en) Auto Unload
US12066917B2 (en) Auto insights into data changes
CN111368060A (zh) 对话机器人的自学习方法、装置、系统、电子设备及介质
CN112100210A (zh) 数据处理方法和汽车大数据管理云平台
Cheng et al. EasyRec: An easy-to-use, extendable and efficient framework for building industrial recommendation systems
CN101996246B (zh) 即时索引方法及系统
CN101382959A (zh) 一种多媒体资源获取方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200710

WD01 Invention patent application deemed withdrawn after publication