CN109711548A - 超参数的选取方法、使用方法、装置及电子设备 - Google Patents

超参数的选取方法、使用方法、装置及电子设备 Download PDF

Info

Publication number
CN109711548A
CN109711548A CN201811604530.1A CN201811604530A CN109711548A CN 109711548 A CN109711548 A CN 109711548A CN 201811604530 A CN201811604530 A CN 201811604530A CN 109711548 A CN109711548 A CN 109711548A
Authority
CN
China
Prior art keywords
hyper parameter
training
parameter value
candidate
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811604530.1A
Other languages
English (en)
Inventor
李士钰
白椿山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Optical Technology Co Ltd
Original Assignee
Goertek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Inc filed Critical Goertek Inc
Priority to CN201811604530.1A priority Critical patent/CN109711548A/zh
Publication of CN109711548A publication Critical patent/CN109711548A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种超参数的选取方法、使用方法、装置及电子设备。超参数的选取方法包括:获取目标超参数的多个候选超参数值;分别将每个候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对包括多个训练样本的训练样本集,基于预设的深度学习网络进行符合预设的训练步数的训练,得到每个候选超参数值在作为预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的评价指标;根据评价指标,选取每一步训练的最优超参数值,得到由训练步数中每一步训练的最优超参数值构成的、目标超参数的最优超参数值集合。

Description

超参数的选取方法、使用方法、装置及电子设备
技术领域
本发明涉及机器学习技术领域,更具体地,涉及一种超参数的选取方法、使用方法、装置及电子设备。
背景技术
随着基于机器学习网络模型的人工智能技术在图像识别、自然语言处理、序列决策等场景中的应用越来越普遍,显著提高应用场景中的操作效率,为人们的生产和生活带来了极大的便利。
而机器学习网络模型的使用,离不开对机器学习网络模型的训练。机器学习网络模型的训练包括调整机器学习网络模型所基于的深度学习网络的参数。而深度学习网络的参数除了网络结构本身的权重参数之外,还包括一些不属于深度学习网络本身在学习训练过程中所求解的参数,这些参数被称为超参数。
常用的深度学习网络例如R-CNN(Region-Convolutional Neural Networks,区域卷积神经网络)、resnet(Residual Neural Network,残差神经网络)等,超参数通常包括学习率(Learning Rate)、批大小(batch size)、网络单元丢弃率(dropout)等。
深度学习网络的超参数会影响深度学习网络的收敛正确率、收敛速度以及基于深度学习网络训练的机器学习网络模型的检测性能等。因此,超参数的选择对于机器学习网络模型的训练至关重要。
现有的超参数的选择,主要依赖于实施训练机器学习模型的训练人员根据自身的模型训练经验来实施,训练人员通常是比较模型训练的训练结果,选择出自身认为较好的一组训练结果对应的超参数,但是,这样的超参数选择方式,往往受限于训练人员自身的经验,并不能保证选择的超参数的准确性。
发明内容
本发明的一个目的是提供一种用于选取超参数的新技术方案。
根据本发明的第一方面,提供了一种超参数的选取方法,其中,包括:
获取目标超参数的多个候选超参数值;
分别将每个所述候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对包括多个训练样本的训练样本集,基于所述预设的深度学习网络进行符合预设的训练步数的训练,得到每个所述候选超参数值在作为所述预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的评价指标;
根据所述评价指标,选取每一步训练的最优超参数值,得到由所述训练步数中每一步训练的所述最优超参数值构成的、所述目标超参数的最优超参数值集合。
可选地,所述获取目标超参数的多个候选超参数值的步骤包括:
在预设的取值区间中,选取多个符合预设的精度需求的数值作为所述候选超参数值;
和/或,
所述根据所述评价指标,选取每一步训练的最优超参数值的步骤包括:
从所述多个候选超参数值中,选取每一步训练后所述评价指标最高的所述候选超参数值,作为每一步训练的所述最优超参数值。
可选地,所述得到每个所述候选超参数值在作为所述预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的评价指标的步骤包括:
分别将每个所述候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对所述训练样本集,基于预设的深度学习网络进行每一步训练后,对应得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的中间模型;
根据所述每一步训练后的中间模型,对所述训练样本集中包括的每个所述训练样本进行识别,得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的识别结果;
其中,所述识别结果中包括训练样本集中的每个所述训练样本是否被识别为正样本;
根据所述识别结果,得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的评价指标。
可选地,
所述训练样本集具有对应的验证样本集,所述验证样本集中包括多个验证样本,每个验证样本与所述训练样本集中的一个训练样本唯一对应,所述验证样本分为正样本或负样本;
所述得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的评价指标的步骤包括:
根据每个所述候选超参数值在每一步训练后的识别结果以及所述验证样本集,得到每个所述候选超参数值在每一步训练后的准确率和召回率;
根据每个所述候选超参数值在每一步训练后的准确率和召回率,获取每个所述候选超参数值在每一步训练后的评价指标。
可选地,
所述得到每个所述候选超参数值在每一步训练后的准确率和召回率的步骤包括:
根据每个所述候选超参数值在每一步训练后的识别结果,得到所述识别结果中被识别为正样本的训练样本的数目;
根据所述识别结果中被识别为正样本的训练样本的数目以及所述验证样本集合中包括的验证样本的数目,得到所述准确率,并且,根据所述识别结果中被识别为正样本的训练样本的数目以及所述验证样本集合中包括的是正样本的验证样本的数目,得到所述召回率。
可选地,所述获取每个所述候选超参数值在每一步训练后的评价指标的步骤包括:
将所述准确率与预设的第一权重的乘积值,与所述召回率与预设的第二权重的乘积值求和,得到所述评价指标。
根据本发明的第二方面,提供一种超参数的使用方法,包括:
基于预设的深度学习网络进行每一步训练前,将从目标超参数的最优超参数值集合中选取对应的最优超参数值,设置为所述预设的深度学习网络的所述目标超参数的超参数值,以进行每一步训练;
其中,所述最优超参数值集合根据本发明的第一方面的超参数的选取方法获取,所述最优超参数值集合包括所述目标超参数在预设的训练步数中每一步训练所使用的所述最优超参数值。
根据本发明的第三方面,提供一种超参数的选取装置,其中,包括:
获取单元,用于获取目标超参数的多个候选超参数值;
评价单元,用于分别将每个所述候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对包括多个训练样本的训练样本集,基于预设的深度学习网络进行符合预设的训练步数的训练,得到每个所述候选超参数值在作为所述预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的评价指标;
选取单元,用于根据所述评价指标,选取每一步训练的最优超参数值,得到由多个所述最优超参数值构成的、所述目标超参数的最优超参数值集合。
根据本发明的第四方面,提供一种超参数的使用装置,包括:
用于基于预设的深度学习网络进行每一步训练前,将从目标超参数的最优超参数值集合中选取对应的最优超参数值,设置为所述预设的深度学习网络的所述目标超参数的超参数值,以进行每一步训练的装置;
其中,所述最优超参数值集合根据本发明的第一方面的超参数的选取方法获取,所述最优超参数值集合包括所述目标超参数在预设的训练步数中每一步训练的所述最优超参数值。
根据本发明的第五方面,提供一种电子设备,包括:
存储器,用于存储可执行的指令;
处理器,用于根据所述可执行的指令的控制,运行所述电子设备执行如本发明的第一方面的超参数的选取方法或者如本发明的第二方面的的超参数的使用方法。
根据本公开的一个实施例,分别将获取的目标超参数的多个候选超参数值中的每一个候选超参数值,作为预设的深度学习网络的对应目标超参数的超参数值,对包括多个训练样本的训练样本集进行符合预设的训练步数的训练,得到每个候选超参数值在每一步训练后的评价指标,以根据评价指标选取目标超参数在每一步训练的最优超参数值,得到对应的最优超参数值集合,可以根据最优超参数值集合,在基于深度学习网络进行的每一步训练中提供目标超参数的最优超参数值进行训练,相对于整个训练过程都依赖人工经验选取目标超参数的固定的超参数值进行训练,能令基于深度学习网络的训练过程具有更快的收敛速度以及更高的收敛正确率,相应提高基于深度学习网络训练的机器学习网络模型的性能,提升训练效率。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1是显示可用于实现本发明的实施例的电子设备1000的硬件配置的例子的框图。
图2示出了本发明的实施例的超参数选取方法的流程图。
图3示出了本发明的超参数值的评价指标的变化的例子的示意图。
图4示出了本发明的实施例的超参数选取装置3000的框图。
图5示出了本发明的实施例的电子设备4000的框图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<硬件配置>
图1是示出可以实现本发明的实施例的电子设备1000的硬件配置的框图。
电子设备1000可以是便携式电脑、台式计算机、手机、平板电脑等。如图1所示,电子设备1000可以包括处理器1100、存储器1200、接口装置1300、通信装置1400、显示装置1500、输入装置1600、扬声器1700、麦克风1800等等。其中,处理器1100可以是中央处理器CPU、微处理器MCU等。存储器1200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1300例如包括USB接口、耳机接口等。通信装置1400例如能够进行有线或无线通信,具体地可以包括Wifi通信、蓝牙通信、2G/3G/4G/5G通信等。显示装置1500例如是液晶显示屏、触摸显示屏等。输入装置1600例如可以包括触摸屏、键盘、体感输入等。用户可以通过扬声器1700和麦克风1800输入/输出语音信息。
图1所示的电子设备仅仅是说明性的并且决不意味着对本发明、其应用或使用的任何限制。应用于本发明的实施例中,电子设备1000的所述存储器1200用于存储指令,所述指令用于控制所述处理器1100进行操作以执行本发明实施例提供的任意一项超参数的选取方法或超参数的使用方法。本领域技术人员应当理解,尽管在图1中对电子设备1000示出了多个装置,但是,本发明可以仅涉及其中的部分装置,例如,电子设备1000只涉及处理器1100和存储装置1200。技术人员可以根据本发明所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
<第一实施例>
在本实施例中,提供一种超参数的选取方法。超参数是机器学习网络模型所基于的深度学习网络的一类参数,超参数不同于深度学习网络的网络结果本身的权重参数,不是在训练机器学习网络模型中求解的参数。在本实施例中,超参数可以是深度学习网络的学习率(Learning Rate)、批大小(batch size)、或网络单元丢弃率(dropout)等。学习率是用于控制着基于损失梯度调整深度学习网络的权重的速度的超参数。批大小是指每次对深度学习网络进行训练时,从训练集中选取训练的样本数。网络单元丢弃率是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。
如图2所示,超参数的选取方法包括:步骤S2100-S2300。
步骤S2100,获取目标超参数的多个候选超参数值。
目标超参数是期望选取的某个类别的超参数,例如,目标超参数可以是学习率、批大小或网络单元丢弃率等。
候选超参数值是目标超参数可能选取的参数值。
在本实施例中,可以根据实验仿真或者工程经验预先设置多个候选超参数值存储在可供读取的存储介质中,供实施本实施例的超参数的选取方法时获取。
在一个例子中,获取目标超参数的多个候选超参数值的步骤可以包括:
在预设的取值区间中,选取多个符合预设的精度需求的数值作为候选超参数值。
预设的取值区间可以根据实验仿真或者工程经验设置。预设的精度需求可以根据具体的应用场景或者应用需求设置。
在预设的取值区间中,选取多个符合预设的精度需求的数值作为候选超参数值,可以使得候选超参数值更符合深度学习网络的训练场景或者训练需求,以便结合后续步骤,为目标超参数选取更准确的超参数值。
在本实施例中,候选超参数值的具体数目可以根据具体的应用需求或者应用场景设置,在此不做唯一限定。
步骤S2200,分别将每个候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对包括多个训练样本的训练样本集,基于预设的深度学习网络进行符合预设的训练步数的训练,得到每个候选超参数值在作为预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的评价指标。
在本实施例中,预设的深度学习网络可以根据具体的应用场景或者应用需求设置,例如,预设的深度学习网络可以采用各种常见的卷积神经网络,比如ResNet(Deepresidual network,深度残差网络)或者其他开源可获取的卷积神经网络。该预设的深度学习网络中可以通过卷积、最大池化等处理提取作为训练样本(例如图片)的特征。该预设的深度学习网络的激活函数也可以根据具体的应用场景或者应用需求设置,例如使用ReLU(Rectified Linear Unit,线性整流)函数作为激活函数。
在本实施例中,训练样本集可以根据的应用场景或者应用需求进行构建。例如,可以对开源训练集MNIST项目中的训练集和验证集提供的图片,利用开源的基于数据流编程的符合数学系统TensorFlow对这些图片进行图像处理,将每张原始图片转化为一个符合预设的大小的训练样本,并将包括图像数据、存储路径、图像编码格式、图像特征等训练样本的具体内容存储为可在训练深度学习网络是直接读取的TensorFlow格式文件,以此实现构建包括多个训练样本的训练集。
预设的训练步数可以根据具体的训练需求或者训练场景设置,在此不做唯一限定。
评价指标是用于评价对于某个超参数选择对应的超参数值作为进行神经学习网络训练时的超参数值时,获取的训练性能的指标。该训练性能包括基于神经学习网络进行训练的收敛正确率、收敛速度等。
申请人在对深度学习网络进行训练的研发中,经过大量的工作,发现对于同一个目标超参数,使用不同的超参数值进行训练时,训练获取的评价指标的高低并不是相对不变的,即不同的超参数值表现出的训练效果优劣并不是恒定不变的,而是会随着深度学习网络的训练步数变化。例如,如图3所示,对于预设的深度学习网络,对应的目标超参数使用lr1、lr2、lr3三个超参数值,在训练步数为x1时,超参数值lr3的评价指标最高,在训练步数为x2时,变为超参数值lr2的评价指标最高,在训练步数为x3时,又是超参数值lr3的评价指标最高,而在训练步数大于x3后,则是超参数值lr1的评价指标最高。
因此,分别将每个候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值进行对应的训练,对应得到每一步训练后的评价指标,可以结合后续步骤,选取每一步训练的最优超参数值,可以在基于深度学习网络进行的每一步训练中提供目标超参数的最优超参数值进行训练,相对于整个训练过程都依赖人工经验选取目标超参数的固定的超参数值进行训练,能令基于深度学习网络的训练过程具有更快的收敛速度以及更高的收敛正确率,相应提高基于深度学习网络训练的机器学习网络模型的性能,提升训练效率。
在一个例子中,得到每个候选超参数值在作为预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的评价指标的步骤可以包括:步骤S2210-S2230。
步骤S2210,分别将每个候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对训练样本集,基于预设的深度学习网络进行每一步训练后,对应得到每个候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的中间模型。
通常,在基于深度学习网络训练机器学习模型时,经过多个训练步数的训练后才会输出一个最终的目标机器学习模型。而在本例中,是基于每个候选超参数值,对训练样本集基于预设的深度学习网络训练时的每一步训练后,输出一个中间模型。例如,假设有N个候选超参数值,预设的训练步数为N,对应的,可以获取输出N*M个中间模型。
在本例中,中间模型的具体形式与训练样本集中包括的具体的训练样本以及实际的训练步数相关,并不做具体限定。
步骤S2220,根据每一步训练后的中间模型,对训练样本集中包括的每个训练样本进行识别,得到每个候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的识别结果。
在本例中,识别结果中包括训练样本集中每个训练样本是否被识别为正样本。
通过每个候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值时每一步训练后的中间模型,对训练样本集合进行识别得到的识别结果,可以用于表征通过每个候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值时每一步训练后的对应的训练性能,对应地,可以结合后续步骤,通过每一步训练的识别结果获取对应的评价指标。
步骤S2230,根据识别结果,得到每个候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的评价指标。
具体的一个例子中,训练样本集具有对应的验证样本集。验证样本集中包括多个验证样本,每个验证样本与训练样本集中的一个训练样本唯一对应,验证样本分为正样本或负样本。
得到每个候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的评价指标的步骤包括:步骤S2231-S2232。
步骤S2231,根据每个候选超参数值在每一步训练后的识别结果以及验证样本集,得到每个候选超参数值在每一步训练后的准确率和召回率。
准确率是识别结果中被识别为正样本的比率。
召回率是识别结果中被识别为正样本占全部正样本的比率。
得到每个候选超参数值在每一步训练后的准确率和召回率的步骤可以包括:步骤S22311-S22312。
步骤S22311,根据每个候选超参数值在每一步训练后的识别结果,得到识别结果中被识别为正样本的训练样本的数目。
步骤S22312,根据识别结果中被识别为正样本的训练样本的数目以及验证样本集合中包括的验证样本的数目,得到准确率,并且,根据识别结果中被识别为正样本的训练样本的数目以及验证样本集合中包括的是正样本的验证样本的数目,得到召回率。
假设识别结果中被识别为正样本的训练样本的数目为N1,验证样本集合中包括的验证样本的数目为N2,验证样本集合中包括的是正样本的验证样本的数目为N3,对应的,准确率P=N1/N2,召回率R=N1/N3。
在得到每个候选超参数值在每一步训练后的准确率和召回率后,进入:
步骤S2232,根据每个候选超参数值在每一步训练后的准确率和召回率,获取每个候选超参数值在每一步训练后的评价指标。
具体的一个例子中,获取每个所述候选超参数值在每一步训练后的评价指标的步骤包括:
将准确率与预设的第一权重的乘积值,与召回率与预设的第二权重的乘积值求和,得到评价指标。
预设的第一权重、第二权重可以根据具体的应用场景或者应用需求设置。
例如,假设预设的第一权重为α,预设的第二权重为β,一个候选超参数值在某一步训练后的准确率为P,召回率为R,对应的评价指标为:
Y=α*P+β*R。
其中,第一权重和第二权重均为常数,可根据经验预设。
以此类推,可以获取每个候选超参数值在每一步训练后的评价指标。
在获取每个候选超参数值在每一步训练后的评价指标后,进入:
步骤S2300,根据评价指标,选取每一步训练的最优超参数值,得到由训练步数中每一步训练的最优超参数值构成的、目标超参数的最优超参数值集合。
每个候选超参数值在每一步训练后的评价指标,可以反映基于该候选超参数值基于深度学习网络进行训练时对应的那一步训练的训练性能,根据评价指标选取目标超参数在每一步训练的最优超参数值,得到对应的最优超参数值集合,可以根据最优超参数值集合,在基于深度学习网络进行的每一步训练中提供目标超参数的最优超参数值进行训练,相对于整个训练过程都依赖人工经验选取目标超参数的固定的超参数值进行训练,能令基于深度学习网络的训练过程具有更快的收敛速度以及更高的收敛正确率,相应提高基于深度学习网络训练的机器学习网络模型的性能,提升训练效率。
在一个例子中,根据评价指标,选取每一步训练的最优超参数值的步骤包括:
从多个候选超参数值中,选取每一步训练后评价指标最高的候选超参数值,作为每一步训练的最优超参数值。
每一步训练后评价指标最高的候选超参数值,对应是在该步训练中获取训练性能最好的候选超参数值,将该候选超参数值作为目标超参数在该步训练的超参数值作为最优超参数值,可以确保在每一步训练中提供训练性能最优的超参数值进行训练,相对于整个训练过程都依赖人工经验选取目标超参数的固定的超参数值进行训练,能令基于深度学习网络的训练过程具有更快的收敛速度以及更高的收敛正确率,相应提高基于深度学习网络训练的机器学习网络模型的性能,提升训练效率。
<超参数的选取装置>
在本实施例中,提供一种超参数的选取装置3000,如图4所示,包括:获取单元3100、评价单元3200以及选取单元3300,用于实施本实施例中提供的超参数的选取方法,在此不再赘述。
获取单元3100,用于获取目标超参数的多个候选超参数值。
可选地,获取单元3100包括:
用于在预设的取值区间中,选取多个符合预设的精度需求的数值作为所述候选超参数值的装置。
评价单元3200,用于分别将每个所述候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对包括多个训练样本的训练样本集,基于预设的深度学习网络进行符合预设的训练步数的训练,得到每个所述候选超参数值在作为所述预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的评价指标。
选取单元3300,用于根据评价指标,选取每一步训练的最优超参数值,得到由多个最优超参数值构成的、目标超参数的最优超参数值集合。
可选的,选取单元3300根据评价指标,选取每一步训练的最优超参数值包括:从多个候选超参数值中,选取每一步训练后评价指标最高的候选超参数值,作为每一步训练的最优超参数值。
可选地,评价单元3200包括:
用于分别将每个所述候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对所述训练样本集,基于预设的深度学习网络进行每一步训练后,对应得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的中间模型的装置;
用于根据所述每一步训练后的中间模型,对所述训练样本集中包括的每个所述训练样本进行识别,得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的识别结果的装置;
其中,所述识别结果中包括训练样本集中的每个所述训练样本是否被识别为正样本;
用于根据所述识别结果,得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的评价指标的装置。
进一步可选地,
所述训练样本集具有对应的验证样本集,所述验证样本集中包括多个验证样本,每个验证样本与所述训练样本集中的一个训练样本唯一对应,所述验证样本分为正样本或负样本;
用于根据所述识别结果,得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的评价指标的装置包括:
用于根据每个所述候选超参数值在每一步训练后的识别结果以及所述验证样本集,得到每个所述候选超参数值在每一步训练后的准确率和召回率的装置;
用于根据每个所述候选超参数值在每一步训练后的准确率和召回率,获取每个所述候选超参数值在每一步训练后的评价指标的装置。
进一步可选地,用于根据每个所述候选超参数值在每一步训练后的识别结果以及所述验证样本集,得到每个所述候选超参数值在每一步训练后的准确率和召回率的装置包括:
用于根据每个所述候选超参数值在每一步训练后的识别结果,得到所述识别结果中被识别为正样本的训练样本的数目的装置;
用于根据所述识别结果中被识别为正样本的训练样本的数目以及所述验证样本集合中包括的验证样本的数目,得到所述准确率,并且,根据所述识别结果中被识别为正样本的训练样本的数目以及所述验证样本集合中包括的是正样本的验证样本的数目,得到所述召回率的装置。
进一步可选地,用于根据每个所述候选超参数值在每一步训练后的准确率和召回率,获取每个所述候选超参数值在每一步训练后的评价指标的装置包括:
用于将所述准确率与预设的第一权重的乘积值,与所述召回率与预设的第二权重的乘积值求和,得到所述评价指标的装置。
本领域技术人员应当明白,可以通过各种方式来实现超参数的选取装置3000。例如,可以通过指令配置处理器来实现超参数的选取装置3000。例如,可以将指令存储在ROM中,并且当启动设备时,将指令从ROM读取到可编程器件中来实现超参数的选取装置3000。例如,可以将超参数的选取装置3000固化到专用器件(例如ASIC)中。可以将超参数的选取装置3000分成相互独立的单元,或者可以将它们合并在一起实现。超参数的选取装置3000可以通过上述各种实现方式中的一种来实现,或者可以通过上述各种实现方式中的两种或更多种方式的组合来实现。
<电子设备>
在本实施例中,提供一种电子设备4000,如图5所示,包括:
存储器4100,用于存储可执行的指令;
处理器4200,用于根据所述可执行的指令的控制,运行所述电子设备4000执行本实施例中提供的超参数的选取方法。
在本实施例中,电子设备4000可以具有各种实体形式,例如,可以是具有存储器以及处理器的单片机、电脑、服务器等,也可以是如图1所示的电子设备1000。
以上已经结合附图描述了本发明的第一实施例,根据本实施例,提供一种超参数的选取方法、装置及电子设备,分别将获取的目标超参数的多个候选超参数值中的每一个候选超参数值,作为预设的深度学习网络的对应目标超参数的超参数值,对包括多个训练样本的训练样本集进行符合预设的训练步数的训练,得到每个候选超参数值在每一步训练后的评价指标,以根据评价指标选取目标超参数在每一步训练的最优超参数值,得到对应的最优超参数值集合,可以根据最优超参数值集合,在基于深度学习网络进行的每一步训练中提供目标超参数的最优超参数值进行训练,相对于整个训练过程都依赖人工经验选取目标超参数的固定的超参数值进行训练,能令基于深度学习网络的训练过程具有更快的收敛速度以及更高的收敛正确率,相应提高基于深度学习网络训练的机器学习网络模型的性能,提升训练效率。
<第二实施例>
在本实施例中,提供一种超参数的使用方法,包括:
基于预设的深度学习网络进行每一步训练前,将从目标超参数的最优超参数值集合中选取对应的最优超参数值,设置为预设的深度学习网络的目标超参数的超参数值,以进行每一步训练。
其中,最优超参数值集合根据第一实施例中提供的超参数的选取方法获取,最优超参数值集合包括目标超参数在预设的训练步数中每一步训练所使用的最优超参数值。
目标超参数、预设的训练步数以及预设的深度学习网络,均可以根据具体的应用场景或者应用需求设置,在此不做赘述。
通过在基于深度学习网络进行的每一步训练中使用目标超参数的最优超参数值进行训练,相对于整个训练过程都依赖人工经验选取目标超参数的固定的超参数值进行训练,能令基于深度学习网络的训练过程具有更快的收敛速度以及更高的收敛正确率,相应提高基于深度学习网络训练的机器学习网络模型的性能,提升训练效率。
<超参数的使用装置>
在本实施例中,提供一种超参数的使用装置5000,包括:
用于基于预设的深度学习网络进行每一步训练前,将从目标超参数的最优超参数值集合中选取对应的最优超参数值,设置为所述预设的深度学习网络的所述目标超参数的超参数值,以进行每一步训练的装置;
其中,所述最优超参数值集合根据第一实施例中提供的超参数的选取方法获取,所述最优超参数值集合包括所述目标超参数在预设的训练步数中每一步训练的所述最优超参数值。
本领域技术人员应当明白,可以通过各种方式来实现超参数的使用装置5000。例如,可以通过指令配置处理器来实现超参数的使用装置5000。例如,可以将指令存储在ROM中,并且当启动设备时,将指令从ROM读取到可编程器件中来实现超参数的使用装置5000。例如,可以将超参数的使用装置5000固化到专用器件(例如ASIC)中。可以将超参数的使用装置5000分成相互独立的单元,或者可以将它们合并在一起实现。超参数的使用装置5000可以通过上述各种实现方式中的一种来实现,或者可以通过上述各种实现方式中的两种或更多种方式的组合来实现。
<电子设备>
在本实施例中,提供一种电子设备6000,包括:
存储器6100,用于存储可执行的指令;
处理器6200,用于根据所述可执行的指令的控制,运行所述电子设备6000执行本实施例中提供的超参数的选取方法。
在本实施例中,电子设备6000可以具有各种实体形式,例如,可以是具有存储器以及处理器的单片机、电脑、服务器等,也可以是如图1所示的电子设备1000。在一个具体的例子中,电子设备6000可以与第一实施例中的电子设备4000是同一个电子设备。
以上已经描述了本发明的第一实施例,根据本实施例,提供一种超参数的使用方法、装置及电子设备,通过在基于深度学习网络进行的每一步训练中使用目标超参数的最优超参数值进行训练,相对于整个训练过程都依赖人工经验选取目标超参数的固定的超参数值进行训练,能令基于深度学习网络的训练过程具有更快的收敛速度以及更高的收敛正确率,相应提高基于深度学习网络训练的机器学习网络模型的性能,提升训练效率。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。

Claims (10)

1.一种超参数的选取方法,其特征在于,包括:
获取目标超参数的多个候选超参数值;
分别将每个所述候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对包括多个训练样本的训练样本集,基于所述预设的深度学习网络进行符合预设的训练步数的训练,得到每个所述候选超参数值在作为所述预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的评价指标;
根据所述评价指标,选取每一步训练的最优超参数值,得到由所述训练步数中每一步训练的所述最优超参数值构成的、所述目标超参数的最优超参数值集合。
2.根据权利求1所述的方法,其特征在于,
所述获取目标超参数的多个候选超参数值的步骤包括:
在预设的取值区间中,选取多个符合预设的精度需求的数值作为所述候选超参数值;
和/或,
所述根据所述评价指标,选取每一步训练的最优超参数值的步骤包括:
从所述多个候选超参数值中,选取每一步训练后所述评价指标最高的所述候选超参数值,作为每一步训练的所述最优超参数值。
3.根据权利要求1所述的方法,其特征在于,
所述得到每个所述候选超参数值在作为所述预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的评价指标的步骤包括:
分别将每个所述候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对所述训练样本集,基于预设的深度学习网络进行每一步训练后,对应得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的中间模型;
根据所述每一步训练后的中间模型,对所述训练样本集中包括的每个所述训练样本进行识别,得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的识别结果;
其中,所述识别结果中包括训练样本集中的每个所述训练样本是否被识别为正样本;
根据所述识别结果,得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的评价指标。
4.根据权利要求3所述的方法,其特征在于,
所述训练样本集具有对应的验证样本集,所述验证样本集中包括多个验证样本,每个验证样本与所述训练样本集中的一个训练样本唯一对应,所述验证样本分为正样本或负样本;
所述得到每个所述候选超参数值作为所述预设的深度学习网络的对应目标超参数的超参数值时在每一步训练后的评价指标的步骤包括:
根据每个所述候选超参数值在每一步训练后的识别结果以及所述验证样本集,得到每个所述候选超参数值在每一步训练后的准确率和召回率;
根据每个所述候选超参数值在每一步训练后的准确率和召回率,获取每个所述候选超参数值在每一步训练后的评价指标。
5.根据权利要求4所述的方法,其特征在于,
所述得到每个所述候选超参数值在每一步训练后的准确率和召回率的步骤包括:
根据每个所述候选超参数值在每一步训练后的识别结果,得到所述识别结果中被识别为正样本的训练样本的数目;
根据所述识别结果中被识别为正样本的训练样本的数目以及所述验证样本集合中包括的验证样本的数目,得到所述准确率,并且,根据所述识别结果中被识别为正样本的训练样本的数目以及所述验证样本集合中包括的是正样本的验证样本的数目,得到所述召回率。
6.根据所述权利要求4所述的方法,其特征在于,所述获取每个所述候选超参数值在每一步训练后的评价指标的步骤包括:
将所述准确率与预设的第一权重的乘积值,与所述召回率与预设的第二权重的乘积值求和,得到所述评价指标。
7.一种超参数的使用方法,其特征在于,包括:
基于预设的深度学习网络进行每一步训练前,将从目标超参数的最优超参数值集合中选取对应的最优超参数值,设置为所述预设的深度学习网络的所述目标超参数的超参数值,以进行每一步训练;
其中,所述最优超参数值集合根据权利要求1-6所述的超参数的选取方法获取,所述最优超参数值集合包括所述目标超参数在预设的训练步数中每一步训练所使用的所述最优超参数值。
8.一种超参数的选取装置,其特征在于,包括:
获取单元,用于获取目标超参数的多个候选超参数值;
评价单元,用于分别将每个所述候选超参数值作为预设的深度学习网络的对应目标超参数的超参数值,对包括多个训练样本的训练样本集,基于预设的深度学习网络进行符合预设的训练步数的训练,得到每个所述候选超参数值在作为所述预设的深度学习网络的对应目标超参数的超参数值时,在每一步训练后的评价指标;
选取单元,用于根据所述评价指标,选取每一步训练的最优超参数值,得到由多个所述最优超参数值构成的、所述目标超参数的最优超参数值集合。
9.一种超参数的使用装置,其特征在于,包括:
用于基于预设的深度学习网络进行每一步训练前,将从目标超参数的最优超参数值集合中选取对应的最优超参数值,设置为所述预设的深度学习网络的所述目标超参数的超参数值,以进行每一步训练的装置;
其中,所述最优超参数值集合根据权利要求1-6所述的超参数的选取方法获取,所述最优超参数值集合包括所述目标超参数在预设的训练步数中每一步训练的所述最优超参数值。
10.一种电子设备,其特征在于,包括:
存储器,用于存储可执行的指令;
处理器,用于根据所述可执行的指令的控制,运行所述电子设备执行如权利要求1-6所述的超参数的选取方法或者如权利要求7所述的超参数的使用方法。
CN201811604530.1A 2018-12-26 2018-12-26 超参数的选取方法、使用方法、装置及电子设备 Pending CN109711548A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811604530.1A CN109711548A (zh) 2018-12-26 2018-12-26 超参数的选取方法、使用方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811604530.1A CN109711548A (zh) 2018-12-26 2018-12-26 超参数的选取方法、使用方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN109711548A true CN109711548A (zh) 2019-05-03

Family

ID=66257744

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811604530.1A Pending CN109711548A (zh) 2018-12-26 2018-12-26 超参数的选取方法、使用方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN109711548A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503208A (zh) * 2019-08-26 2019-11-26 第四范式(北京)技术有限公司 多模型探索中的资源调度方法和资源调度装置
CN110728306A (zh) * 2019-09-17 2020-01-24 平安科技(深圳)有限公司 反向代理评价模型中目标参数选取方法及相关装置
CN111160522A (zh) * 2019-12-12 2020-05-15 第四范式(北京)技术有限公司 机器学习的抗噪方法、装置及系统
CN111159565A (zh) * 2019-12-31 2020-05-15 第四范式(北京)技术有限公司 构建基于多目标优化的推荐模型的方法、装置及设备
CN111191795A (zh) * 2019-12-31 2020-05-22 第四范式(北京)技术有限公司 一种训练机器学习模型的方法、装置及系统
CN111290762A (zh) * 2020-01-19 2020-06-16 深圳云天励飞技术有限公司 一种深度学习网络的部署方法、装置及终端设备
CN111985631A (zh) * 2019-05-23 2020-11-24 富士通株式会社 信息处理设备、信息处理方法及计算机可读记录介质
CN112085180A (zh) * 2019-06-14 2020-12-15 北京百度网讯科技有限公司 机器学习超参数确定方法、装置、设备和可读存储介质
CN112199189A (zh) * 2019-07-08 2021-01-08 国际商业机器公司 深度学习模型对资源受限边缘设备的适应
CN112926629A (zh) * 2021-01-29 2021-06-08 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN112949850A (zh) * 2021-01-29 2021-06-11 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN113052248A (zh) * 2021-03-31 2021-06-29 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN113052252A (zh) * 2021-03-31 2021-06-29 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN113240109A (zh) * 2021-05-17 2021-08-10 北京达佳互联信息技术有限公司 网络训练的数据处理方法、装置、电子设备、存储介质
CN113298188A (zh) * 2021-06-28 2021-08-24 深圳市商汤科技有限公司 字符识别及神经网络训练方法和装置
CN113657465A (zh) * 2021-07-29 2021-11-16 北京百度网讯科技有限公司 预训练模型的生成方法、装置、电子设备和存储介质

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111985631B (zh) * 2019-05-23 2024-02-27 富士通株式会社 信息处理设备、信息处理方法及计算机可读记录介质
CN111985631A (zh) * 2019-05-23 2020-11-24 富士通株式会社 信息处理设备、信息处理方法及计算机可读记录介质
CN112085180B (zh) * 2019-06-14 2024-05-17 北京百度网讯科技有限公司 机器学习超参数确定方法、装置、设备和可读存储介质
CN112085180A (zh) * 2019-06-14 2020-12-15 北京百度网讯科技有限公司 机器学习超参数确定方法、装置、设备和可读存储介质
CN112199189A (zh) * 2019-07-08 2021-01-08 国际商业机器公司 深度学习模型对资源受限边缘设备的适应
CN110503208A (zh) * 2019-08-26 2019-11-26 第四范式(北京)技术有限公司 多模型探索中的资源调度方法和资源调度装置
CN110503208B (zh) * 2019-08-26 2022-05-17 第四范式(北京)技术有限公司 多模型探索中的资源调度方法和资源调度装置
CN110728306A (zh) * 2019-09-17 2020-01-24 平安科技(深圳)有限公司 反向代理评价模型中目标参数选取方法及相关装置
CN111160522B (zh) * 2019-12-12 2023-11-24 第四范式(北京)技术有限公司 机器学习的抗噪方法、装置及系统
CN111160522A (zh) * 2019-12-12 2020-05-15 第四范式(北京)技术有限公司 机器学习的抗噪方法、装置及系统
CN111191795A (zh) * 2019-12-31 2020-05-22 第四范式(北京)技术有限公司 一种训练机器学习模型的方法、装置及系统
CN111191795B (zh) * 2019-12-31 2023-10-20 第四范式(北京)技术有限公司 一种训练机器学习模型的方法、装置及系统
CN111159565B (zh) * 2019-12-31 2023-08-25 第四范式(北京)技术有限公司 构建基于多目标优化的推荐模型的方法、装置及设备
CN111159565A (zh) * 2019-12-31 2020-05-15 第四范式(北京)技术有限公司 构建基于多目标优化的推荐模型的方法、装置及设备
CN111290762A (zh) * 2020-01-19 2020-06-16 深圳云天励飞技术有限公司 一种深度学习网络的部署方法、装置及终端设备
CN112926629B (zh) * 2021-01-29 2024-04-02 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN112949850B (zh) * 2021-01-29 2024-02-06 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN112926629A (zh) * 2021-01-29 2021-06-08 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN112949850A (zh) * 2021-01-29 2021-06-11 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN113052252B (zh) * 2021-03-31 2024-03-26 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN113052252A (zh) * 2021-03-31 2021-06-29 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN113052248A (zh) * 2021-03-31 2021-06-29 北京字节跳动网络技术有限公司 超参数确定方法、装置、深度强化学习框架、介质及设备
CN113240109A (zh) * 2021-05-17 2021-08-10 北京达佳互联信息技术有限公司 网络训练的数据处理方法、装置、电子设备、存储介质
CN113240109B (zh) * 2021-05-17 2023-06-30 北京达佳互联信息技术有限公司 网络训练的数据处理方法、装置、电子设备、存储介质
WO2023273516A1 (zh) * 2021-06-28 2023-01-05 上海商汤智能科技有限公司 字符识别及神经网络训练方法和装置、神经网络、存储介质及电子设备
CN113298188A (zh) * 2021-06-28 2021-08-24 深圳市商汤科技有限公司 字符识别及神经网络训练方法和装置
CN113657465A (zh) * 2021-07-29 2021-11-16 北京百度网讯科技有限公司 预训练模型的生成方法、装置、电子设备和存储介质
CN113657465B (zh) * 2021-07-29 2024-04-09 北京百度网讯科技有限公司 预训练模型的生成方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN109711548A (zh) 超参数的选取方法、使用方法、装置及电子设备
US10922866B2 (en) Multi-dimensional puppet with photorealistic movement
CN107103113B (zh) 面向神经网络处理器的自动化设计方法、装置及优化方法
CN110832511B (zh) 具有数据相关可用性的分布式设备上学习的系统和方法
CN108664893A (zh) 一种人脸检测方法及存储介质
CN109844761A (zh) 面部的神经网络建模
US20220080318A1 (en) Method and system of automatic animation generation
CN108710949A (zh) 用于创建机器学习建模模板的方法及系统
CN110366734A (zh) 优化神经网络架构
CN108681667A (zh) 一种设备型号识别方法、装置及处理设备
CN109754088A (zh) 具有训练生成式对抗网络的模块化基础结构的计算系统
CN108961369A (zh) 生成3d动画的方法和装置
JP2020013563A (ja) 意味的情報に基づいてフォトリアリスティックな合成画像を生成するためのシステムおよび方法
CN108132887B (zh) 用户界面校验方法、装置、软件测试系统、终端及介质
CN109902672A (zh) 图像标注方法及装置、存储介质、计算机设备
US11727265B2 (en) Methods and apparatus to provide machine programmed creative support to a user
CN109816758A (zh) 一种基于神经网络的二维角色动画生成方法和装置
CN110517339A (zh) 一种基于人工智能的动画形象驱动方法和装置
CN108875693A (zh) 一种图像处理方法、装置、电子设备及其存储介质
CN110377340A (zh) 运算方法、装置及相关产品
CN109978074A (zh) 基于深度多任务学习的图像美感和情感联合分类方法及系统
CN107168993A (zh) 处理响应数据的方法、设备、客户端设备和电子设备
CN116309992A (zh) 一种智能元宇宙直播人物生成方法、设备和存储介质
CN109815448A (zh) 幻灯片生成方法及装置
CN107133631A (zh) 一种识别电视台图标的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20201014

Address after: 261031 north of Yuqing street, east of Dongming Road, high tech Zone, Weifang City, Shandong Province (Room 502, Geer electronic office building)

Applicant after: GoerTek Optical Technology Co.,Ltd.

Address before: 261031 Dongfang Road, Weifang high tech Development Zone, Shandong, China, No. 268

Applicant before: GOERTEK Inc.