CN109145981A - 深度学习自动化模型训练方法及设备 - Google Patents
深度学习自动化模型训练方法及设备 Download PDFInfo
- Publication number
- CN109145981A CN109145981A CN201810941276.8A CN201810941276A CN109145981A CN 109145981 A CN109145981 A CN 109145981A CN 201810941276 A CN201810941276 A CN 201810941276A CN 109145981 A CN109145981 A CN 109145981A
- Authority
- CN
- China
- Prior art keywords
- training
- algorithm model
- round
- model
- parallel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
本发明的目的是提供一种深度学习自动化模型训练方法及设备,本发明通过根据所述任务确定对应的算法模型的类型,可以在多种已知的适合算法模型中直接筛选,并通过每隔第三预设轮次后,根据每个并行训练的算法模型的每个轮次后在所述验证集数据上测试模型性能,筛选掉一个或多个不合格的所述并行训练的算法模型;获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间;训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,选择一个最佳的最佳批次的未被筛选掉的并行的训练的算法模型,实现在训练过程中继续阶梯性的选择算法,减少了计算资源的要求和计算的时间,降低了成本。
Description
技术领域
本发明涉及计算机领域,尤其涉及一种深度学习自动化模型训练方法及设备。
背景技术
深度学习方法是一种基于神经网络模型的机器学习方法。在各项计算机视觉相关的任务,如图像分类,分割,检测等,均需要根据数据特点和模型性能要求选择算法,训练,并优化。因为每一步都需要有经验的工程师和研究人员耗费大量时间去完成,自动化的实现训练过程已经成为行业中迫切需要的一环。
在利用深度学习方法进行模型训练的过程中,要进行大量的算法选择,比较,训练,和参数调优,这需要耗费长时间的工作量投入。
发明内容
本发明的一个目的是提供一种深度学习自动化模型训练方法及设备。
根据本发明的一个方面,提供了一种深度学习自动化模型训练方法,该方法包括:
获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
进一步的,上述方法中,所述任务包括:分类、检测、分割、追踪中的任一种。
进一步的,上述方法中,所述性能要求包括模型大小、模型速度和模型准确率中的一种或任意组合。
根据本发明的另一方面,还提供了一种深度学习自动化模型训练设备,该设备包括:
第一装置,用于获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
第二装置,用于根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
第三装置,用于得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
第四装置,用于以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
进一步的,上述设备中,所述任务包括:分类、检测、分割、追踪中的任一种。
进一步的,上述设备中,所述性能要求包括模型大小、模型速度和模型准确率中的一种或任意组合。
根据本发明的另一面,还提供一种基于计算的设备,其中,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
根据本发明的另一面,还提供一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
与现有技术相比,本发明通过根据所述任务确定对应的算法模型的类型,可以在多种已知的适合算法模型中直接筛选,并通过每隔第三预设轮次后,根据每个并行训练的算法模型的每个轮次后在所述验证集数据上测试模型性能,筛选掉一个或多个不合格的所述并行训练的算法模型;得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的每个轮次后在所述验证集数据上测试模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间;以每个批次区间初始点开始,利用存储的每个并行训练的算法模型对应的训练得到算法模型,训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的模型性能,得到多个最佳批次的未被筛选掉的并行的训练的算法模型,比较每个最佳批次的未被筛选掉的并行的训练的算法模型的性能,选择一个最佳的最佳批次的未被筛选掉的并行的训练的算法模型,实现在训练过程中继续阶梯性的选择算法,减少了计算资源的要求和计算的时间,降低了成本。本发明可以为视觉,点云等相关的深度学习算法提供了支持。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出本发明一实施例的深度学习自动化模型训练方法的流程图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
下面结合附图对本发明作进一步详细描述。
在本申请一个典型的配置中,终端、服务网络的设备和可信方均包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本发明提供一种深度学习自动化模型训练方法,所述方法包括:
步骤S1,获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
在此,可以从分类,检测,分割,位姿检测,追踪等等的任务中选择将要进行的任务,此时系统自动将定位到所述任务对应的若干个潜在合适类型的算法模型及数据集,然后可以选择将会使用的验证数据集,一些特殊的验证数据集会有人工的先验知识,这将进一步缩小算法模型的类型范围,此时可以输入对于所述算法模型的参数限制与性能要求,系统会根据这些来确定大致的模型深度,所述性能要求包括模型大小,模型速度,模型准确率等;
步骤S2,根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,步骤S3,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;步骤S4,每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;步骤S5,每隔第三预设轮次后,根据每个并行训练的算法模型的在每个轮次后在所述验证集数据上测试算法模型性能,筛选掉一个或多个不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次,从而及时的停止不必要的尝试和资源浪费,并加快之后的训练速度;
步骤S6,得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
步骤S7,以每个批次区间初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础上,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型;
步骤S8,将所述选择的一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
在此,可以自动的选择和优化算法模型,从而减少需要的人力工作量和计算资源
本申请提供了一个新的针对模型自动化训练,选择和优化的系统,能够依据一些已设置好的对算法模型的性能要求,对多种计算机视觉和深度学习的任务实现模型的自动训练,大大减少人为的工作量。
本发明通过根据所述任务确定对应的算法模型的类型,可以在多种已知的适合算法模型中直接筛选,并通过每隔第三预设轮次后,根据每个并行训练的算法模型的每个轮次后在所述验证集数据上测试模型性能,筛选掉一个或多个不合格的所述并行训练的算法模型;得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的每个轮次后在所述验证集数据上测试模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间;以每个批次区间初始点开始,利用存储的每个并行训练的算法模型对应的训练得到算法模型,训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的模型性能,得到多个最佳批次的未被筛选掉的并行的训练的算法模型,比较每个最佳批次的未被筛选掉的并行的训练的算法模型的性能,选择一个最佳的最佳批次的未被筛选掉的并行的训练的算法模型,实现在训练过程中继续阶梯性的选择算法,减少了计算资源的要求和计算的时间,降低了成本。本发明可以为视觉,点云等相关的深度学习算法提供了支持。
根据本发明的另一方面,还提供了一种深度学习自动化模型训练设备,该设备包括:
第一装置,用于获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
第二装置,用于根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
第三装置,用于得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
第四装置,用于以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
进一步的,上述设备中,所述任务包括:分类、检测、分割、追踪中的任一种。
进一步的,上述设备中,所述性能要求包括模型大小、模型速度和模型准确率中的一种或任意组合。
根据本发明的另一面,还提供一种基于计算的设备,其中,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
根据本发明的另一面,还提供一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
上述设备和计算机可读存储介质各实施例的详细内容,具体可参见各方法实施例的对应部分,在此,不再赘述。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
需要注意的是,本发明可在软件和/或软件与硬件的组合体中被实施,例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一个实施例中,本发明的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本发明的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本发明的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
另外,本发明的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本发明的方法和/或技术方案。而调用本发明的方法的程序指令,可能被存储在固定的或可移动的记录介质中,和/或通过广播或其他信号承载媒体中的数据流而被传输,和/或被存储在根据所述程序指令运行的计算机设备的工作存储器中。在此,根据本发明的一个实施例包括一个装置,该装置包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根据本发明的多个实施例的方法和/或技术方案。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (8)
1.一种深度学习自动化模型训练方法,其中,该方法包括:
获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
2.根据权利要求1所述的方法,其中,所述任务包括:分类、检测、分割、追踪中的任一种。
3.根据权利要求1所述的方法,其中,所述性能要求包括模型大小、模型速度和模型准确率中的一种或任意组合。
4.一种深度学习自动化模型训练设备,其中,该设备包括:
第一装置,用于获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
第二装置,用于根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
第三装置,用于得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
第四装置,用于以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
5.根据权利要求4所述的设备,其中,所述任务包括:分类、检测、分割、追踪中的任一种。
6.根据权利要求4所述的设备,其中,所述性能要求包括模型大小、模型速度和模型准确率中的一种或任意组合。
7.一种基于计算的设备,其中,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
8.一种计算机可读存储介质,其上存储有计算机可执行指令,其中,该计算机可执行指令被处理器执行时使得该处理器:
获取将要进行的任务,根据所述任务确定对应的验证数据集、算法模型的类型和所述算法模型的参数限制与性能要求;
根据数据集、算法模型的类型和所述算法模型的参数限制与性能要求,确认并行的训练多个算法模型后,进行多个所述算法模型的并行训练,其中,每个并行训练的算法模型进行第一预设轮次的并行训练,每个并行训练的算法模型在其前一轮次的训练结果上进行后一轮次的训练,每一轮次的训练包括多个批次的训练,每一轮次的训练中,每个并行训练的算法模型在其同一轮次的前一批次的训练结果上进行该轮次的后一批次的训练,所述并行训练中,在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能;每隔第二预设轮次后,存储每个并行训练的算法模型对应的训练得到算法模型,其中,所述第二预设轮次小于所述第一预设轮次;每隔第三预设轮次后,根据在每个并行训练的算法模型的每个轮次后,在所述验证集数据上测试模型性能,筛选掉不合格的并行训练的算法模型,其中,所述第三预设轮次小于所述第一预设轮次;
得到尚未被筛选掉的一个或者若干个并行的训练的算法模型,根据每个未被筛选掉的并行的训练的算法模型的在每个轮次后在所述验证集数据上测试的算法模型性能,得到每个未被筛选掉的并行的训练的算法模型的历史最佳性能,获取每个未被筛选掉的并行的训练的算法模型的历史最佳性能对应的轮次中的批次区间,所述批次区间包括初始点和结束点;
以每个批次区间的初始点为开始点,在所述存储的每个并行训练的算法模型对应的训练得到算法模型的基础,继续训练每个批次区间对应的未被筛选掉的并行的训练的算法模型,并用所述验证集数据测试所述批次区间内每个批次的算法模型性能,得到多个最佳批次的训练得到的算法模型,比较每个最佳批次的训练得到的算法模型的性能,选择一个最佳的最佳批次的训练得到的算法模型,作为最终算法模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810941276.8A CN109145981B (zh) | 2018-08-17 | 2018-08-17 | 深度学习自动化模型训练方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810941276.8A CN109145981B (zh) | 2018-08-17 | 2018-08-17 | 深度学习自动化模型训练方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109145981A true CN109145981A (zh) | 2019-01-04 |
CN109145981B CN109145981B (zh) | 2021-12-07 |
Family
ID=64790257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810941276.8A Active CN109145981B (zh) | 2018-08-17 | 2018-08-17 | 深度学习自动化模型训练方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109145981B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977957A (zh) * | 2019-03-04 | 2019-07-05 | 苏宁易购集团股份有限公司 | 一种基于深度学习的发票识别方法及系统 |
CN111191789A (zh) * | 2020-01-20 | 2020-05-22 | 上海依图网络科技有限公司 | 模型训练方法、系统、芯片、电子设备及介质 |
CN112101567A (zh) * | 2020-09-15 | 2020-12-18 | 厦门渊亭信息科技有限公司 | 基于人工智能的自动化建模方法及装置 |
CN112405521A (zh) * | 2020-10-16 | 2021-02-26 | 北京百度网讯科技有限公司 | 模型的训练方法、装置、电子设备及存储介质 |
CN113537446A (zh) * | 2020-04-17 | 2021-10-22 | 富泰华工业(深圳)有限公司 | 深度学习算法的选择方法及深度学习算法的选择装置 |
CN113537446B (zh) * | 2020-04-17 | 2024-07-12 | 富泰华工业(深圳)有限公司 | 深度学习算法的选择方法及深度学习算法的选择装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989374A (zh) * | 2015-03-03 | 2016-10-05 | 阿里巴巴集团控股有限公司 | 一种在线训练模型的方法和设备 |
CN107563279A (zh) * | 2017-07-22 | 2018-01-09 | 复旦大学 | 针对人体属性分类的自适应权重调整的模型训练方法 |
-
2018
- 2018-08-17 CN CN201810941276.8A patent/CN109145981B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989374A (zh) * | 2015-03-03 | 2016-10-05 | 阿里巴巴集团控股有限公司 | 一种在线训练模型的方法和设备 |
CN107563279A (zh) * | 2017-07-22 | 2018-01-09 | 复旦大学 | 针对人体属性分类的自适应权重调整的模型训练方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977957A (zh) * | 2019-03-04 | 2019-07-05 | 苏宁易购集团股份有限公司 | 一种基于深度学习的发票识别方法及系统 |
CN111191789A (zh) * | 2020-01-20 | 2020-05-22 | 上海依图网络科技有限公司 | 模型训练方法、系统、芯片、电子设备及介质 |
CN111191789B (zh) * | 2020-01-20 | 2023-11-28 | 上海依图网络科技有限公司 | 模型优化部署系统、芯片、电子设备及介质 |
CN113537446A (zh) * | 2020-04-17 | 2021-10-22 | 富泰华工业(深圳)有限公司 | 深度学习算法的选择方法及深度学习算法的选择装置 |
CN113537446B (zh) * | 2020-04-17 | 2024-07-12 | 富泰华工业(深圳)有限公司 | 深度学习算法的选择方法及深度学习算法的选择装置 |
CN112101567A (zh) * | 2020-09-15 | 2020-12-18 | 厦门渊亭信息科技有限公司 | 基于人工智能的自动化建模方法及装置 |
CN112405521A (zh) * | 2020-10-16 | 2021-02-26 | 北京百度网讯科技有限公司 | 模型的训练方法、装置、电子设备及存储介质 |
CN112405521B (zh) * | 2020-10-16 | 2022-02-25 | 北京百度网讯科技有限公司 | 模型的训练方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109145981B (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109145981A (zh) | 深度学习自动化模型训练方法及设备 | |
CN103927510B (zh) | 图像识别装置和图像识别方法 | |
US20120158623A1 (en) | Visualizing machine learning accuracy | |
US20150278706A1 (en) | Method, Predictive Analytics System, and Computer Program Product for Performing Online and Offline Learning | |
KR20200047307A (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20200094622A (ko) | 뉴럴 네트워크 학습에 이용될 오토 라벨링된 이미지 중에서 라벨 검수를 위한 샘플 이미지를 획득하는 방법 및 이를 이용한 샘플 이미지 획득 장치 | |
JP6973625B2 (ja) | 学習装置、学習方法および学習プログラム | |
EP3226176A1 (en) | Method for learning rejector by forming classification tree in use of training images and detecting object in test images, and rejector using the same | |
CN110188495B (zh) | 一种基于深度学习的二维户型图生成三维户型图的方法 | |
CN109816043B (zh) | 用户识别模型的确定方法、装置、电子设备及存储介质 | |
CN106980571A (zh) | 一种测试用例集的构建方法和设备 | |
CN110378942A (zh) | 基于双目相机的障碍物标识方法、系统、设备和存储介质 | |
US20150066443A1 (en) | Computing device and method for analyzing assembly clearance between two components of product | |
CN106326928A (zh) | 一种目标识别方法及设备 | |
CN109190674A (zh) | 训练数据的生成方法及装置 | |
CN110390261A (zh) | 目标检测方法、装置、计算机可读存储介质及电子设备 | |
CN109743286A (zh) | 一种基于图卷积神经网络的ip类型标记方法及设备 | |
CN112541584A (zh) | 深度神经网络模型并行模式选择方法 | |
CN115981902A (zh) | 一种细粒度分布式微服务系统异常根因定位方法及装置 | |
CN110533180A (zh) | 网络结构搜索方法和装置、可读存储介质、电子设备 | |
CN110969249A (zh) | 生产井产量预测模型建立方法、生产井产量预测方法及相关装置 | |
CN106355247B (zh) | 数据处理方法和装置、芯片和电子设备 | |
CN110780198B (zh) | 一种伺服焊接系统运动的波形识别方法及设备 | |
JP7176285B2 (ja) | 訓練データ評価装置、訓練データ評価方法、およびプログラム | |
CN111160385A (zh) | 海量位置点聚合的方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |