CN108898222A - 一种自动调节网络模型超参数的方法和装置 - Google Patents
一种自动调节网络模型超参数的方法和装置 Download PDFInfo
- Publication number
- CN108898222A CN108898222A CN201810671612.1A CN201810671612A CN108898222A CN 108898222 A CN108898222 A CN 108898222A CN 201810671612 A CN201810671612 A CN 201810671612A CN 108898222 A CN108898222 A CN 108898222A
- Authority
- CN
- China
- Prior art keywords
- hyper parameter
- training
- network model
- model
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明实施例公开了一种自动调节网络模型超参数的方法和装置,该方法包括:将待测试的数据集划分为训练集、测试集和验证集;根据训练集对网络模型进行迭代训练,以获取超参数模型;在迭代训练过程中,通过测试集对当前获得的超参数进行测试,以确定根据该超参数是否能够获得预设的测试结果;在迭代训练结束后,对获得的超参数模型进行验证,以确定根据该超参数模型是否能够获得预设的验证结果。通过该实施例方案,提高超参数的优化效率,避免了人工设定费时费力的操作。
Description
技术领域
本发明实施例涉及深度学习技术,尤指一种自动调节网络模型超参数的方法和装置。
背景技术
在深度学习中,网络模型的超参数设置是靠人的经验进行设定,且超参数的参数量也很大,这样设定的组合就会有很多种,且每一种都需要单独的进行训练之后,然后看测试的收敛程度是否符合要求,这样大约的组合有上百种甚至更多,这就需要人工一步一步的设定,这需要很长的时间才可以得出一套最优的网络模型超参数,效率非常低下。
当前有部分技术实现通过一次运行多个任务,每个任务一组超参数的值,然后一起开始运行,最后看哪一组的网络模型收敛就认为这一组很好,但是这样做有两个缺点,第一个是需要大量的资源进行运行所有的并行程序;第二个是如果数据集是共享的,好多框架是不支持同一时刻有多个训练任务去读取的。
发明内容
为了解决上述技术问题,本发明实施例提供了一种自动调节网络模型超参数的方法和装置,能够提高超参数的优化效率,避免人工设定费时费力的操作。
为了达到本发明实施例目的,本发明实施例提供了一种自动调节网络模型超参数的方法,该方法可以包括:
将待测试的数据集划分为训练集、测试集和验证集;
根据训练集对网络模型进行迭代训练,以获取超参数模型;
在迭代训练过程中,通过测试集对当前获得的超参数进行测试,以确定根据该超参数是否能够获得预设的测试结果;
在迭代训练结束后,对获得的超参数模型进行验证,以确定根据该超参数模型是否能够获得预设的验证结果。
可选地,根据训练集对网络模型进行迭代训练,以获取超参数模型包括:
根据预设的迭代次数N将训练集划分为N个训练子集;
根据N个训练子集进行N次迭代训练;其中每次迭代训练中,在上一次迭代获得的超参数的基础上按照预设的梯度值对超参数进行自动更新;该超参数的初始值为预设的基本超参数。
可选地,根据N个训练子集进行N次迭代训练包括:
31、i=1,i为正整数;
32、将所述网络模型的超数据设置为a+i×△a;a为预设的基本超参数,△a为预设的梯度值;
33、将第i个训练子集输入所述网络模型;
34、判断是否达到i=N?如果达到i=N,则进入步骤35;如果未达到i=N,则i+1,并返回步骤32;
35、结束迭代训练。
可选地,网络模型的模型文件通过python脚本实现。
可选地,该方法还可以包括:在测试满足预设的测试结果和/或验证满足预设的验证结果时,将获得的超参数或超参数组合以字典形式进行保存。
为了达到本发明实施例目的,本发明实施例还提供了一种自动调节网络模型超参数的装置,该装置包括:划分模块、训练模块、测试模块和验证模块;
划分模块,用于将待测试的数据集划分为训练集、测试集和验证集;
训练模块,用于根据训练集对网络模型进行迭代训练,以获取超参数模型;
测试模块,用于在迭代训练过程中,通过测试集对当前获得的超参数进行测试,以确定根据该超参数是否能够获得预设的测试结果;
验证模块,用于在迭代训练结束后,对获得的超参数模型进行验证,以确定根据超参数模型是否能够获得预设的验证结果。
可选地,训练模块根据训练集对网络模型进行迭代训练,以获取超参数模型包括:
根据预设的迭代次数N将训练集划分为N个训练子集;
根据N个训练子集进行N次迭代训练;其中每次迭代训练中,在上一次迭代获得的超参数的基础上按照预设的梯度值对超参数进行自动更新;超参数的初始值为预设的基本超参数。
可选地,训练模块根据N个训练子集进行N次迭代训练包括:
81、i=1,i为正整数;
82、将网络模型的超数据设置为a+i×△a;a为预设的基本超参数,△a为预设的梯度值;
83、将第i个训练子集输入网络模型;
84、判断是否达到i=N?如果达到i=N,则进入步骤85;如果未达到i=N,则i+1,并返回步骤82;
85、结束迭代训练。
可选地,网络模型的模型文件通过python脚本实现。
可选地,该装置还包括:保存模块;
保存模块,用于在测试满足预设的测试结果和/或验证满足预设的验证结果时,将获得的超参数或超参数组合以字典形式进行保存。
本发明实施例可以包括:将待测试的数据集划分为训练集、测试集和验证集;根据训练集对网络模型进行迭代训练,以获取超参数模型;在迭代训练过程中,通过测试集对当前获得的超参数进行测试,以确定根据该超参数是否能够获得预设的测试结果;在迭代训练结束后,对获得的超参数模型进行验证,以确定根据该超参数模型是否能够获得预设的验证结果。通过该实施例方案,提高超参数的优化效率,避免了人工设定费时费力的操作。
本发明实施例的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明实施例的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本发明实施例技术方案的进一步理解,并且构成说明书的一部分,与本申请的实施例一起用于解释本发明实施例的技术方案,并不构成对本发明实施例技术方案的限制。
图1为本发明实施例的自动调节网络模型超参数的方法流程图;
图2为本发明实施例的自动调节网络模型超参数的方法示意图;
图3为本发明实施例的自动调节网络模型超参数的装置组成框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下文中将结合附图对本发明的实施例进行详细说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
为了达到本发明实施例目的,本发明实施例提供了一种自动调节网络模型超参数的方法,如图1、图2所示,该方法可以包括S101-S104:
S101、将待测试的数据集划分为训练集、测试集和验证集。
在本发明实施例中,对数据集进行划分,分成训练集、测试集、验证集,每一个数据集都对应不同的训练、测试和验证作用,所以这是最基本的一步。通过对不同数据集进行自动训练验证得到最优的超参数组合,从而减少人工设定费时费力的操作。
在本发明实施例中,首先可以把训练集、测试集、验证集的数据全部加载到深度学习环境中,把他们的路径全部配置完成,且把相应的网络模型的内参数都定义好。
在本发明实施例中,调用深度学习训练脚本,把训练集的启动程序定义好,然后同时把验证集的启动程序定义好,同时将验证集中用到的算法也都指定好。在把测试集的验证程序指定好,然后统一开始执行任务,进行超参数的自动规定。
在本发明实施例中,首先可以根据训练集和步骤S102对预设的深度学习网络模型进行迭代训练。
S102、根据训练集对网络模型进行迭代训练,以获取超参数模型。
可选地,根据训练集对网络模型进行迭代训练,以获取超参数模型可以包括:
根据预设的迭代次数N将训练集划分为N个训练子集;
根据N个训练子集进行N次迭代训练;其中每次迭代训练中,在上一次迭代获得的超参数的基础上按照预设的梯度值对超参数进行自动更新;该超参数的初始值为预设的基本超参数。
在本发明实施例中,进行深度学习的网络模型的内参数已经预先设置好,在该步骤中需要在迭代的过程中根据预设的梯度值逐次自动更新超参数的数值,来逐次对超参数进行优化。
可选地,根据N个训练子集进行N次迭代训练可以包括:
31、i=1,i为正整数;
32、将所述网络模型的超数据设置为a+i×△a;a为预设的基本超参数,△a为预设的梯度值;
33、将第i个训练子集输入所述网络模型;
34、判断是否达到i=N?如果达到i=N,则进入步骤35;如果未达到i=N,则i+1,并返回步骤32;
35、结束迭代训练。
在本发明实施例中,根据不同的应用场景,对于不同的网络模型的超参数设置的基本超参数(即超参数迭代训练之前设置的初始值)可以不同,并且具体设置的梯度值(即每一次迭代时)也可以不同,在此对于该基本超参数和梯度值的具体数值不做限制。
在本发明实施例中,在上述的迭代训练中,针对不同类型的超参数可以依次嵌套不同的迭代循环,例如,可以先按照一种类型的超参数进行迭代训练,其他类型的超参数保持不变,获取该种类型的超参数的最优数值后,对该类型的超参数的最优数值进行保存,并根据该最优数值对其他类型的超参数进行迭代训练,获取相应的最优数值。在其它实施例中,还可以同时对不同类型的超参数同时进行更新,进行迭代训练。
在本发明实施例中,对于具体的迭代训练方式不做限制。
S103、在迭代训练过程中,通过测试集对当前获得的超参数进行测试,以确定根据该超参数是否能够获得预设的测试结果。
在本发明实施例中,为了实现对当前获得的超参数是否符合预设要求进行及时验证,可以在迭代训练过程中,通过划分出的测试集对当前获得的超参数进行测试,具体地,可以将该获得的超参数的数值设置在另一个用于测试的网络模型(该网络模型设置的内参数与迭代训练中所使用的网络模型的内参数均相同)中,并将测试集输入该侧适用网络模型中,获取网络模型的输出结果,以判断该输出结果是否达到了预设的测试结果。如果输出结果满足预设的测试结果,可以确定当前的超参数已经满足预设要求,可以对当前满足要求的超参数进行存储;如果输出结果未满足预设的测试结果,可以确定当前的超参数未满足预设要求,并获取后续的超参数继续进行测试。
在本发明实施例中,通过该步骤可以快速获取满足要求的超参数,提高了超参数的优化效率。
在本发明实施例中,对于超参数的测试步骤可以实施执行或定期执行,也可以在每依次迭代后执行一次,对于具体的执行周期不做限制。
S104、在迭代训练结束后,对获得的超参数模型进行验证,以确定根据该超参数模型是否能够获得预设的验证结果。
在本发明实施例中,在预设的迭代次数结束后,可以对该次训练获得的超参数模型做进一步验证,即将预先划分出来的验证集输入该超参数模型中,并获取输出结果,检测概述出结果是否满足预设的验证结果。如果输出结果满足预设的验证结果,可以确定当前的超参数模型中的超参数已经是最优组合,可以对当前的超参数组合进行存储;如果输出结果未满足预设的验证结果,可以确定当前的超参数模型中的超参数还未达到最优组合,并进入下一次迭代训练,根据预设的迭代次数再次对训练集进行训练。
可选地,网络模型的模型文件通过python脚本实现。
在本发明实施例中,可以现在预设的测试机上导入预设的模块文件,网络模型的模型文件可以是通过python撰写的,导入方法非常简单,可以通过python脚本实现:frominspur.model_selection import SearchGrid。
在本发明实施例中,前述的网络模型的模型工具cv可以是整数、交叉验证生成器或一个可迭代器,cv参数对应的内参数可以列举如下:
None:默认参数,函数会使用默认的3折交叉验证;
整数k:k折交叉验证;
对于分类任务,使用StratifiedKFold(类别平衡,每类的训练集占比一样多,具体可以查看官方文档);
对于其他任务,可以使用KFold。
可选地,该方法还可以包括:在测试满足预设的测试结果和/或验证满足预设的验证结果时,将获得的超参数或超参数组合以字典形式进行保存。
在本发明实施例中,不同超参数的组合方式及其计算结果可以以字典的形式保存在clf.cv_results_中,python的pandas模块提供了高效整理数据的方法,只需要3行代码即可解决问题:
cv_result=pd.DataFrame.from_dict(clf.cv_results_)
with open('cv_result.csv','w')as f:
cv_result.to_csv(f)。
在本发明实施例中,结果的自动保存还可以通过下述方式实现:
逗号分隔值(Comma-Separated Values,CSV,有时也称为字符分隔值,因为分隔字符也可以不是逗号),其文件以纯文本形式存储表格数据(数字和文本)。纯文本意味着该文件是一个,不含必须像二进制数字那样被解读的数据。CSV文件由任意数目的记录组成,记录间以某种换行符分隔;每条记录由字段组成,字段间的分隔符是其它字符或字符串,最常见的是逗号或制表符。通常,所有记录都有完全相同的字段序列。
CSV文件有个突出的优点,可以用excel等软件打开,比起记事本和matlab、python等编程语言界面,便于查看、制作报告、后期整理等。
为了达到本发明实施例目的,本发明实施例还提供了一种自动调节网络模型超参数的装置1,需要说明的是,上述的方法实施例中的任意实施例均适用于该装置实施例中,在此不再一一赘述。如图3所示,该装置可以包括:划分模块11、训练模块12、测试模块13和验证模块14;
划分模块11,用于将待测试的数据集划分为训练集、测试集和验证集;
训练模块12,用于根据训练集对网络模型进行迭代训练,以获取超参数模型;
测试模块13,用于在迭代训练过程中,通过测试集对当前获得的超参数进行测试,以确定根据该超参数是否能够获得预设的测试结果;
验证模块14,用于在迭代训练结束后,对获得的超参数模型进行验证,以确定根据超参数模型是否能够获得预设的验证结果。
可选地,训练模块12根据训练集对网络模型进行迭代训练,以获取超参数模型包括:
根据预设的迭代次数N将训练集划分为N个训练子集;
根据N个训练子集进行N次迭代训练;其中每次迭代训练中,在上一次迭代获得的超参数的基础上按照预设的梯度值对超参数进行自动更新;超参数的初始值为预设的基本超参数。
可选地,训练模块12根据N个训练子集进行N次迭代训练包括:
81、i=1,i为正整数;
82、将网络模型的超数据设置为a+i×△a;a为预设的基本超参数,△a为预设的梯度值;
83、将第i个训练子集输入网络模型;
84、判断是否达到i=N?如果达到i=N,则进入步骤85;如果未达到i=N,则i+1,并返回步骤82;
85、结束迭代训练。
可选地,网络模型的模型文件通过python脚本实现。
可选地,该装置还包括:保存模块;
保存模块,用于在测试满足预设的测试结果和/或验证满足预设的验证结果时,将获得的超参数或超参数组合以字典形式进行保存。
本发明实施例可以包括:将待测试的数据集划分为训练集、测试集和验证集;根据训练集对网络模型进行迭代训练,以获取超参数模型;在迭代训练过程中,通过测试集对当前获得的超参数进行测试,以确定根据该超参数是否能够获得预设的测试结果;在迭代训练结束后,对获得的超参数模型进行验证,以确定根据该超参数模型是否能够获得预设的验证结果。通过该实施例方案,提高超参数的优化效率,避免了人工设定费时费力的操作。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些组件或所有组件可以被实施为由处理器,如数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
Claims (10)
1.一种自动调节网络模型超参数的方法,其特征在于,所述方法包括:
将待测试的数据集划分为训练集、测试集和验证集;
根据所述训练集对网络模型进行迭代训练,以获取超参数模型;
在所述迭代训练过程中,通过所述测试集对当前获得的超参数进行测试,以确定根据该超参数是否能够获得预设的测试结果;
在所述迭代训练结束后,对获得的所述超参数模型进行验证,以确定根据所述超参数模型是否能够获得预设的验证结果。
2.根据权利要求1所述的自动调节网络模型超参数的方法,其特征在于,所述根据所述训练集对网络模型进行迭代训练,以获取超参数模型包括:
根据预设的迭代次数N将所述训练集划分为N个训练子集;
根据所述N个训练子集进行N次迭代训练;其中每次迭代训练中,在上一次迭代获得的超参数的基础上按照预设的梯度值对所述超参数进行自动更新;所述超参数的初始值为预设的基本超参数。
3.根据权利要求2所述的自动调节网络模型超参数的方法,其特征在于,所述根据所述N个训练子集进行N次迭代训练包括:
31、i=1,i为正整数;
32、将所述网络模型的超数据设置为a+i×△a;a为所述基本超参数,△a为所述梯度值;
33、将第i个训练子集输入所述网络模型;
34、判断是否达到i=N?如果达到i=N,则进入步骤35;如果未达到i=N,则i+1,并返回步骤32;
35、结束迭代训练。
4.根据权利要求1-3任意一项所述的自动调节网络模型超参数的方法,其特征在于,所述网络模型的模型文件通过python脚本实现。
5.根据权利要求1-3任意一项所述的自动调节网络模型超参数的方法,其特征在于,所述方法还包括:在所述测试满足所述预设的测试结果和/或所述验证满足所述预设的验证结果时,将获得的超参数或超参数组合以字典形式进行保存。
6.一种自动调节网络模型超参数的装置,其特征在于,所述装置包括:划分模块、训练模块、测试模块和验证模块;
所述划分模块,用于将待测试的数据集划分为训练集、测试集和验证集;
所述训练模块,用于根据所述训练集对网络模型进行迭代训练,以获取超参数模型;
所述测试模块,用于在所述迭代训练过程中,通过所述测试集对当前获得的超参数进行测试,以确定根据该超参数是否能够获得预设的测试结果;
所述验证模块,用于在所述迭代训练结束后,对获得的所述超参数模型进行验证,以确定根据所述超参数模型是否能够获得预设的验证结果。
7.根据权利要求6所述的自动调节网络模型超参数的装置,其特征在于,所述训练模块根据所述训练集对网络模型进行迭代训练,以获取超参数模型包括:
根据预设的迭代次数N将所述训练集划分为N个训练子集;
根据所述N个训练子集进行N次迭代训练;其中每次迭代训练中,在上一次迭代获得的超参数的基础上按照预设的梯度值对所述超参数进行自动更新;所述超参数的初始值为预设的基本超参数。
8.根据权利要求7所述的自动调节网络模型超参数的装置,其特征在于,所述训练模块根据所述N个训练子集进行N次迭代训练包括:
81、i=1,i为正整数;
82、将所述网络模型的超数据设置为a+i×△a;a为所述基本超参数,△a为所述梯度值;
83、将第i个训练子集输入所述网络模型;
84、判断是否达到i=N?如果达到i=N,则进入步骤85;如果未达到i=N,则i+1,并返回步骤82;
85、结束迭代训练。
9.根据权利要求6-8任意一项所述的自动调节网络模型超参数的装置,其特征在于,所述网络模型的模型文件通过python脚本实现。
10.根据权利要求6-8任意一项所述的自动调节网络模型超参数的装置,其特征在于,所述装置还包括:保存模块;
所述保存模块,用于在所述测试满足所述预设的测试结果和/或所述验证满足所述预设的验证结果时,将获得的超参数或超参数组合以字典形式进行保存。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810671612.1A CN108898222A (zh) | 2018-06-26 | 2018-06-26 | 一种自动调节网络模型超参数的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810671612.1A CN108898222A (zh) | 2018-06-26 | 2018-06-26 | 一种自动调节网络模型超参数的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108898222A true CN108898222A (zh) | 2018-11-27 |
Family
ID=64346334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810671612.1A Withdrawn CN108898222A (zh) | 2018-06-26 | 2018-06-26 | 一种自动调节网络模型超参数的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108898222A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109685160A (zh) * | 2019-01-18 | 2019-04-26 | 创新奇智(合肥)科技有限公司 | 一种在线模型自动训练及部署方法及系统 |
CN110310628A (zh) * | 2019-06-27 | 2019-10-08 | 百度在线网络技术(北京)有限公司 | 唤醒模型的优化方法、装置、设备及存储介质 |
CN110782045A (zh) * | 2019-10-17 | 2020-02-11 | 成都四方伟业软件股份有限公司 | 一种运维告警系统动态阈值的生成方法及装置 |
CN111178517A (zh) * | 2020-01-20 | 2020-05-19 | 上海依图网络科技有限公司 | 模型部署方法、系统、芯片、电子设备及介质 |
CN111260073A (zh) * | 2020-01-09 | 2020-06-09 | 京东数字科技控股有限公司 | 数据处理方法、装置和计算机可读存储介质 |
CN111382757A (zh) * | 2018-12-28 | 2020-07-07 | 深圳市优必选科技有限公司 | 深度学习分类算法中动态调节训练样本的方法及终端设备 |
CN112197876A (zh) * | 2020-09-27 | 2021-01-08 | 中国科学院光电技术研究所 | 基于四象限离散相位调制的单远场型深度学习波前复原方法 |
CN112489402A (zh) * | 2020-11-27 | 2021-03-12 | 罗普特科技集团股份有限公司 | 一种管廊的预警方法、装置、系统及存储介质 |
CN113536690A (zh) * | 2021-07-30 | 2021-10-22 | 安徽容知日新科技股份有限公司 | 一种模型的参数调整方法及计算设备 |
CN113724881A (zh) * | 2021-07-12 | 2021-11-30 | 上海中医药大学 | Meta分析自动数据预处理和参数设置软件及其应用 |
CN114513428A (zh) * | 2022-01-06 | 2022-05-17 | 新华三技术有限公司 | 一种数据处理方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103606133A (zh) * | 2013-11-06 | 2014-02-26 | 南昌大学 | 一种基于解析稀疏表示的图像去噪方法 |
CN106651830A (zh) * | 2016-09-28 | 2017-05-10 | 华南理工大学 | 一种基于并行卷积神经网络的图像质量测试方法 |
CN106997474A (zh) * | 2016-12-29 | 2017-08-01 | 南京邮电大学 | 一种基于深度学习的图节点多标签分类方法 |
CN107610194A (zh) * | 2017-08-14 | 2018-01-19 | 成都大学 | 基于多尺度融合cnn的磁共振图像超分辨率重建方法 |
CN107844755A (zh) * | 2017-10-23 | 2018-03-27 | 重庆邮电大学 | 一种结合dae和cnn的脑电信号特征提取与分类方法 |
CN107886064A (zh) * | 2017-11-06 | 2018-04-06 | 安徽大学 | 一种基于卷积神经网络的人脸识别场景适应的方法 |
-
2018
- 2018-06-26 CN CN201810671612.1A patent/CN108898222A/zh not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103606133A (zh) * | 2013-11-06 | 2014-02-26 | 南昌大学 | 一种基于解析稀疏表示的图像去噪方法 |
CN106651830A (zh) * | 2016-09-28 | 2017-05-10 | 华南理工大学 | 一种基于并行卷积神经网络的图像质量测试方法 |
CN106997474A (zh) * | 2016-12-29 | 2017-08-01 | 南京邮电大学 | 一种基于深度学习的图节点多标签分类方法 |
CN107610194A (zh) * | 2017-08-14 | 2018-01-19 | 成都大学 | 基于多尺度融合cnn的磁共振图像超分辨率重建方法 |
CN107844755A (zh) * | 2017-10-23 | 2018-03-27 | 重庆邮电大学 | 一种结合dae和cnn的脑电信号特征提取与分类方法 |
CN107886064A (zh) * | 2017-11-06 | 2018-04-06 | 安徽大学 | 一种基于卷积神经网络的人脸识别场景适应的方法 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111382757B (zh) * | 2018-12-28 | 2023-09-08 | 深圳市优必选科技有限公司 | 深度学习分类算法中动态调节训练样本的方法及终端设备 |
CN111382757A (zh) * | 2018-12-28 | 2020-07-07 | 深圳市优必选科技有限公司 | 深度学习分类算法中动态调节训练样本的方法及终端设备 |
CN109685160A (zh) * | 2019-01-18 | 2019-04-26 | 创新奇智(合肥)科技有限公司 | 一种在线模型自动训练及部署方法及系统 |
US11189287B2 (en) | 2019-06-27 | 2021-11-30 | Baidu Online Network Technology (Beijing) Co., Ltd. | Optimization method, apparatus, device for wake-up model, and storage medium |
CN110310628A (zh) * | 2019-06-27 | 2019-10-08 | 百度在线网络技术(北京)有限公司 | 唤醒模型的优化方法、装置、设备及存储介质 |
CN110310628B (zh) * | 2019-06-27 | 2022-05-20 | 百度在线网络技术(北京)有限公司 | 唤醒模型的优化方法、装置、设备及存储介质 |
CN110782045A (zh) * | 2019-10-17 | 2020-02-11 | 成都四方伟业软件股份有限公司 | 一种运维告警系统动态阈值的生成方法及装置 |
CN111260073A (zh) * | 2020-01-09 | 2020-06-09 | 京东数字科技控股有限公司 | 数据处理方法、装置和计算机可读存储介质 |
CN111178517A (zh) * | 2020-01-20 | 2020-05-19 | 上海依图网络科技有限公司 | 模型部署方法、系统、芯片、电子设备及介质 |
CN111178517B (zh) * | 2020-01-20 | 2023-12-05 | 上海依图网络科技有限公司 | 模型部署方法、系统、芯片、电子设备及介质 |
CN112197876A (zh) * | 2020-09-27 | 2021-01-08 | 中国科学院光电技术研究所 | 基于四象限离散相位调制的单远场型深度学习波前复原方法 |
CN112489402A (zh) * | 2020-11-27 | 2021-03-12 | 罗普特科技集团股份有限公司 | 一种管廊的预警方法、装置、系统及存储介质 |
CN113724881A (zh) * | 2021-07-12 | 2021-11-30 | 上海中医药大学 | Meta分析自动数据预处理和参数设置软件及其应用 |
CN113724881B (zh) * | 2021-07-12 | 2024-03-29 | 上海中医药大学 | Meta分析自动数据预处理和参数设置软件及其应用 |
CN113536690A (zh) * | 2021-07-30 | 2021-10-22 | 安徽容知日新科技股份有限公司 | 一种模型的参数调整方法及计算设备 |
CN113536690B (zh) * | 2021-07-30 | 2024-02-27 | 安徽容知日新科技股份有限公司 | 一种模型的参数调整方法及计算设备 |
CN114513428A (zh) * | 2022-01-06 | 2022-05-17 | 新华三技术有限公司 | 一种数据处理方法及装置 |
CN114513428B (zh) * | 2022-01-06 | 2023-10-03 | 新华三技术有限公司 | 一种数据处理方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108898222A (zh) | 一种自动调节网络模型超参数的方法和装置 | |
CN105912500B (zh) | 机器学习模型生成方法和装置 | |
US11455150B2 (en) | Accelerating application modernization | |
US9928161B1 (en) | Automated quality assurance testing of browser-based applications | |
CN109240924B (zh) | 一种应用程序的测试方法及设备 | |
CN102750309B (zh) | 一种基于Hadoop的并行化SVM求解方法 | |
CN110221975B (zh) | 创建接口用例自动化测试脚本的方法及装置 | |
CN106055464B (zh) | 数据缓存集群压力测试装置及方法 | |
CN110493812B (zh) | 配网测试的处理方法、装置、系统、处理器及主控设备 | |
CN105786695B (zh) | 数据测试方法及系统 | |
CN108446195A (zh) | 一种服务器内存性能测试方法和装置 | |
CN110096263A (zh) | Web前端代码自动生成方法及装置 | |
CN102595184A (zh) | 智能电视自动化测试方法及系统 | |
CN106326112B (zh) | 一种程序作业自动批改的方法和装置 | |
CN109582559A (zh) | 系统的验证方法、装置、电子设备及存储介质 | |
CN105844226A (zh) | 基于主观题的数据处理方法及其装置 | |
CN110362469A (zh) | 基于模块化测试用例控制方法、装置、终端与存储介质 | |
CN106649111A (zh) | 一种运行测试用例的方法和装置 | |
CN106528429A (zh) | 一种ui界面测试方法及装置 | |
CN105447003B (zh) | 一种参数集合生成方法及设备 | |
CN109245910B (zh) | 识别故障类型的方法及装置 | |
CN113672674A (zh) | 一种自动编排业务流的方法、电子装置和存储介质 | |
CN106776275B (zh) | 一种基于分组复用的测试流程自动生成方法 | |
CN109857806A (zh) | 数据库表的同步验证方法及装置 | |
CN107451063B (zh) | 一种脚本测试方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20181127 |
|
WW01 | Invention patent application withdrawn after publication |