CN107209873A - 用于深度卷积网络的超参数选择 - Google Patents
用于深度卷积网络的超参数选择 Download PDFInfo
- Publication number
- CN107209873A CN107209873A CN201580074740.2A CN201580074740A CN107209873A CN 107209873 A CN107209873 A CN 107209873A CN 201580074740 A CN201580074740 A CN 201580074740A CN 107209873 A CN107209873 A CN 107209873A
- Authority
- CN
- China
- Prior art keywords
- hyper parameter
- network architecture
- network
- distribution
- collection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Abstract
通过选择数个网络架构作为数据库的一部分来选择用于训练深度卷积网络的超参数。这些网络架构中的每一者包括一个或多个局部逻辑回归层并且被训练成生成被存储在数据库中的对应验证误差。用于标识良好网络架构集合和不良网络架构集合的阈值误差可以基于数据库中的验证误差来估计。该方法还包括基于作为良好网络架构集合的函数的度量来选取对应于下一网络架构的下一潜在超参数。该方法进一步包括从各下一网络架构中选择具有最低验证误差的网络架构。
Description
相关申请的交叉引用
本申请要求于2015年1月29日提交且题为“HYPER-PARAMETER SELECTION FORDEEP CONVOLUTIONAL NETWORKS(用于深度卷积网络的超参数选择)”的美国临时专利申请No.62/109,470的权益,其公开内容通过援引全部明确纳入于此。
背景
领域
本公开的某些方面一般涉及机器学习,且更具体地涉及改进选择用于深度卷积网络的超参数的系统和方法。
背景技术
可包括一群互连的人工神经元(例如,神经元模型)的人工神经网络是一种计算设备或者表示将由计算设备执行的方法。
卷积神经网络是一种前馈人工神经网络。卷积神经网络可包括神经元集合,其中每一个神经元具有感受野并且共同地拼出一输入空间。卷积神经网络(CNN)具有众多应用。具体地,CNN已被广泛使用于模式识别和分类领域。
深度学习架构(诸如,深度置信网络和深度卷积网络)是分层神经网络架构,其中神经元的第一层的输出变成神经元的第二层的输入,神经元的第二层的输出变成神经元的第三层的输入,以此类推。深度神经网络可被训练以识别特征阶层并因此它们被越来越多地用于对象识别应用。类似于卷积神经网络,这些深度学习架构中的计算可在处理节点群体上分发,其可被配置在一个或多个计算链中。这些多层架构可每次训练一层并可使用反向传播微调。
其他模型也可用于对象识别。例如,支持向量机(SVM)是可被应用于分类的学习工具。支持向量机包括对数据进行分类的分开的超平面(例如,决策边界)。该超平面由监督式学习定义。期望的超平面增加训练数据的余裕。换言之,超平面应该具有到训练示例的最大的最小距离。
尽管这些解决方案在数个分类基准上取得了优异的结果,但它们的计算复杂度可能极其高。另外,模型的训练是有挑战性的。
概览
在一方面,给出了一种选择用于训练深度卷积网络的超参数的方法。该方法包括选择数个网络架构作为数据库的一部分。这些网络架构中的每一者包括一个或多个局部逻辑回归层并且被训练成生成被存储在数据库中的对应验证误差。用于标识良好网络架构集合和不良网络架构集合的阈值误差可以基于数据库中的验证误差来估计。该方法还包括基于作为良好网络架构集合的函数的度量来选取对应于下一网络架构的下一潜在超参数。该方法进一步包括从各下一网络架构中选择具有最低验证误差的网络架构。
在另一方面,给出了一种选择用于训练深度卷积网络的超参数的装置。该装置包括存储器以及耦合至该存储器的至少一个处理器。该一个或多个处理器被配置成选择数个网络架构作为数据库的一部分。这些网络架构中的每一者包括一个或多个局部逻辑回归层并且被训练成生成被存储在数据库中的对应验证误差。该(诸)处理器还被配置成基于数据库中的验证误差来估计用于标识良好网络架构集合和不良网络架构集合的阈值误差。该(诸)处理器还被配置成基于作为良好网络架构集合的函数的度量来选取对应于下一网络架构的下一潜在超参数。该(诸)处理器被进一步配置成从各下一网络架构中选择具有最低验证误差的网络架构。
在又一方面,给出了一种选择用于训练深度卷积网络的超参数的设备。该设备包括用于选择数个网络架构作为数据库的一部分的装置。这些网络架构中的每一者包括一个或多个局部逻辑回归层。该设备还包括用于训练这些网络架构中的每一者以生成被存储在数据库中的对应验证误差的装置。该设备进一步包括用于基于数据库中的验证误差来估计用于标识良好网络架构集合和不良网络架构集合的阈值误差的装置。该设备附加地包括用于基于作为良好网络架构集合的函数的度量来选取对应于下一网络架构的下一潜在超参数的装置。此外,该设备包括用于从各下一网络架构中选择具有最低验证误差的网络架构的装置。
在又一方面,给出了一种非瞬态计算机可读介质。该非瞬态计算机可读介质具有编码于其上的用于选择用于训练深度卷积网络的超参数的程序代码。该程序代码由处理器执行并且包括用于选择数个网络架构作为数据库的一部分的程序代码。这些网络架构中的每一者包括一个或多个局部逻辑回归层并且被训练成生成被存储在数据库中的对应验证误差。该程序代码还包括用于基于数据库中的验证误差来估计用于标识良好网络架构集合和不良网络架构集合的阈值误差的程序代码。该程序代码进一步包括用于基于作为良好网络架构集合的函数的度量来选取对应于下一网络架构的下一潜在超参数的程序代码。此外,该程序代码包括用于从各下一网络架构中选择具有最低验证误差的网络架构的程序代码。
本公开的附加特征和优点将在下文描述。本领域技术人员应该领会,本公开可容易地被用作修改或设计用于实施与本公开相同的目的的其他结构的基础。本领域技术人员还应认识到,这样的等效构造并不脱离所附权利要求中所阐述的本公开的教导。被认为是本公开的特性的新颖特征在其组织和操作方法两方面连同进一步的目的和优点在结合附图来考虑以下描述时将被更好地理解。然而,要清楚理解的是,提供每一幅附图均仅用于解说和描述目的,且无意作为对本公开的限定的定义。
附图简述
在结合附图理解下面阐述的详细描述时,本公开的特征、本质和优点将变得更加明显,在附图中,相同附图标记始终作相应标识。
图1解说了根据本公开的某些方面的使用片上系统(SOC)(包括通用处理器)来设计神经网络的示例实现。
图2解说了根据本公开的各方面的系统的示例实现。
图3A是解说根据本公开的各方面的神经网络的示图。
图3B是解说根据本公开的各方面的示例性深度卷积网络(DCN)的框图。
图3C是解说根据本公开的各方面的增强型深度卷积网络(DCN)的框图。
图4是解说根据本公开的各方面的可将人工智能(AI)功能模块化的示例性软件架构的框图。
图5是解说根据本公开的各方面的智能手机上AI应用的运行时操作的框图。
图6是解说根据本公开的各方面的选择用于训练深度卷积网络的超参数的方法的框图。
图7是解说示例随机搜索效率曲线的示图。
图8解说了根据本公开的各方面的选择用于训练深度卷积网络的超参数的方法。
详细描述
以下结合附图阐述的详细描述旨在作为各种配置的描述,而无意表示可实践本文中所描述的概念的仅有的配置。本详细描述包括具体细节以便提供对各种概念的透彻理解。然而,对于本领域技术人员将显而易见的是,没有这些具体细节也可实践这些概念。在一些实例中,以框图形式示出众所周知的结构和组件以避免湮没此类概念。
基于本教导,本领域技术人员应领会,本公开的范围旨在覆盖本公开的任何方面,不论其是与本公开的任何其他方面相独立地还是组合地实现的。例如,可以使用所阐述的任何数目的方面来实现装置或实践方法。另外,本公开的范围旨在覆盖使用作为所阐述的本公开的各个方面的补充或者与之不同的其他结构、功能性、或者结构及功能性来实践的此类装置或方法。应当理解,所披露的本公开的任何方面可由权利要求的一个或多个元素来实施。
措辞“示例性”在本文中用于表示“用作示例、实例或解说”。本文中描述为“示例性”的任何方面不必被解释为优于或胜过其他方面。
尽管本文描述了特定方面,但这些方面的众多变体和置换落在本公开的范围之内。虽然提到了优选方面的一些益处和优点,但本公开的范围并非旨在被限定于特定益处、用途或目标。相反,本公开的各方面旨在能宽泛地应用于不同的技术、系统配置、网络和协议,其中一些作为示例在附图以及以下对优选方面的描述中解说。详细描述和附图仅仅解说本公开而非限定本公开,本公开的范围由所附权利要求及其等效技术方案来定义。
超参数选择
神经网络(诸如,深度卷积网络(CDN))可被配置为系列网络,其包括一系列卷积层、归一化层和池化块,继之以一系列全连接隐藏层,继之以逻辑回归成本函数层。然而,随着网络的深度增加,已观察到DCN的训练是困难的,主要遭受较大深度处的消失梯度问题。为了解决该问题,DCN的架构和/或学习参数可被修改以促成训练。例如,DCN可被修改成使得DCN的每一层被强制局部学习映射x→y,通过在每一个卷积块的输出处引入逻辑回归成本函数。
根据本公开的各方面,架构超参数和/或学习超参数可被选择以促成训练神经网络,诸如,深度卷积网络(DCN)。超参数包括描述神经网络的架构参数以及用于经由训练过程(诸如,反向传播)训练神经网络的学习参数。
在一个示例性方面,神经网络可包括DCN。DCN模型可由Mλ(x,w)来表示。DCN模型可对输入数据进行操作并且生成估计以用于输出数据DCN模型M可例如使用两组参数来参数化。当然,还可根据设计偏好使用更多或更少的参数。第一参数w可使用训练准则C来获得。第二参数λ={λI,λa}包括一组参数,其可被称为超参数。超参数定义DCN网络架构(λa)或者与用于训练准则C的改进的学习过程(λI)相关联的参数。用于使用梯度下降类型学习过程训练(诸如,反向传播学习过程)的DCN网络的该组超参数λ可包括、但不限于:
与DCN架构设计相关联的超参数
1.卷积层的数目
2.全连接隐藏层的数目
3.对于每一卷积层:
–用于局部响应归一化层的存在或不存在的布尔变量
–用于池化层的存在或不存在的布尔变量
–过滤器数目
–过滤器大小
–跨步
–填充
4.对于每一池化层:
–大小
–跨步
5.对于每一归一化层:
–大小
–标度
–功率
6.对于每一全连接隐藏层:
–隐藏节点数目
–用于退出者的存在或不存在的布尔变量
–退出者值
与DCN学习过程相关联的超参数
1.用于权重更新的学习参数
2.用于权重更新的动量参数
3.规则化参数
4.训练历元的数目
5.最小批次的大小
6.冷却策略:出于清楚起见,一种示例性冷却策略可规定:随着训练的进行,学习速率缩放因子α<1。随着学习速率被冷却,权重更新值的波动更小并且解决方案向给定局部最小值收敛的可能性较高。
DCN超参数选择的一个目标是解决如下所述的联合选择问题:
其中
其中{(xtr,ytr),(xh,yh)}∈(x,y)分别是输入和输出训练和维持(或测试或验证)数据集,
在一些方面,可采用贝叶斯办法来解决超参数选择问题。在一个示例中,数据集D1:t={λ1:t,e1:t}可包括T个DCN模型,其中表示超参数集合并且表示针对i=1…t DCN模型中的每一者的验证(例如,保持)数据集的误差。在贝叶斯办法下,可以指派关于e的误差p(e)的先验概率。数据库可随后被用来获得对似然函数p((D1:t|e))的估计,其可提供数据库中的给定架构关于给定验证误差的概率。先验和似然函数可以进而被用来获得对后验分布的估计,其可由p(e|D1:t)∝p(D1:t|e)p(e)给出,其中所估计的后验分布与架构关于给定误差的概率和误差的概率的乘积成比例。
随后可确定下一潜在超参数。样本λt+1和et+1可通过增大效用函数u(e)相对于目标函数e的后验分布的期望值来获得。如以上所勾勒的在贝叶斯办法底下的一个关键思想是优化效用函数的期望值比求解选择Ψ的原始问题(如在式1中陈述的)便宜得多并且计算上快得多。
在一些方面,效用函数可以是预期改进(EI)函数。当然,也可使用其它效用函数。例如,效用函数可以是改进的概率。改进的概率关注于给定探测点x将提供分数的改进,例如,u(e)=P(e*>e)=\phi((e*-mu(x)/sigma(x)),其中\phi是正常累积分布函数。
预期改进效用函数可由u(e)=max((e*-e),0)给出,并且可被用于从该集合中选择模型,其中e*是误差阈值。贝叶斯办法下的目标就是选取使概率分布p(e|D1:t)下的预期改进u(e)最大化的下一超参数λt+1,或者换言之其中E(u(e))给出为:
通过使用预期改进效用函数u(e)=max((e*-e),0),先验p(e)可被定义为使得其中γ是常数,其中l(λ)=p(D1:t|e<e*)表示数据库中具有低误差的模型(低于误差阈值(e*),其可在本文称为良好模型)而g(λ)=p(D1:t|e≥e*)表示数据库中具有较高误差的模型(高于误差阈值(e*),其可在本文称为不良模型)。相应地,预期效用函数E(u(e))的估计可以使用关系E(u(e))∝1/(γ+(1-γ)g(λ)/l(λ))来获得。在一些方面,在模型集合为常数以使得良好模型的数目与不良模型的数目的总和(l(λ)+g(λ)=U(λ))为常数,或者在λ从均匀分布中提取的情况下,预期效用函数的估计可被进一步简化并在γ=0.5时由E(u(e))∝l(λ)给出。
根据这些等式,DCN超参数选择的一个目标就是从与产生最大的良好模型对不良模型的比率l(λ)/g(λ)的良好模型集合(λ1:t∈l(λ))相对应的超参数的分布中选取下一超参数(λt+1),其中l(λ)是该集合中具有低误差的模型(低于误差阈值(e*)——良好模型),并且g(λ)是该集合中具有较高误差的模型(高于误差阈值(e*)——不良模型)。
在一些方面,下一超参数λt+1可以从产生具有针对l(λ)的最低误差或最大值的模型的λ1:t∈U(λ)中选择。
图1解说了根据本公开的某些方面的使用片上系统(SOC)100的前述超参数选择的示例实现,SOC 100可包括通用处理器(CPU)或多核通用处理器(CPU)102。变量(例如,神经信号和突触权重)、与计算设备(例如,带有权重的神经网络)相关联的系统参数、延迟、频率槽信息、以及任务信息可被存储在与神经处理单元(NPU)108相关联的存储器块中、与CPU102相关联的存储器块中、与图形处理单元(GPU)104相关联的存储器块中、与数字信号处理器(DSP)106相关联的存储器块中、专用存储器块118中,或可跨多个块分布。在通用处理器102处执行的指令可从与CPU 102相关联的程序存储器加载或可从专用存储器块118加载。
SOC 100还可包括为具体功能定制的附加处理块(诸如GPU 104、DSP 106、连通性块110(其可包括第四代长期演进(4G LTE)连通性、无执照Wi-Fi连通性、USB连通性、蓝牙连通性等))以及例如可检测和识别姿势的多媒体处理器112。在一种实现中,NPU实现在CPU、DSP、和/或GPU中。SOC 100还可包括传感器处理器114、图像信号处理器(ISP)、和/或导航120(其可包括全球定位系统)。
SOC 100可基于ARM指令集。在本公开的一方面,加载到通用处理器102中的指令可包括用于选择数个网络架构作为数据库的一部分的代码。这些架构中的每一者可包括一个或多个局部逻辑回归层。被加载到通用处理器102中的指令还可包括用于训练每一个架构以生成被存储在数据库中的对应验证误差的代码。被加载到通用处理器102中的指令可进一步包括用于基于数据库中的验证误差来估计用于标识良好架构集合和不良架构集合的阈值误差的代码。另外,被加载到通用处理器102中的指令可包括用于基于作为良好架构的函数的度量来选取对应于下一架构的下一潜在超参数的代码。此外,被加载到通用处理器102中的指令可包括用于从各下一架构中选择具有最低验证误差的架构的代码。
图2解说了根据本公开的某些方面的系统200的示例实现。如图2中所解说的,系统200可具有可执行本文所描述的方法的各种操作的多个局部处理单元202。每一个局部处理单元202可包括局部状态存储器204和可存储神经网络的参数的局部参数存储器206。另外,局部处理单元202可具有用于存储局部模型程序的局部(神经元)模型程序(LMP)存储器208、用于存储局部学习程序的局部学习程序(LLP)存储器210、以及局部连接存储器212。此外,如图2中所解说的,每一个局部处理单元202可与用于为该局部处理单元的各局部存储器提供配置的配置处理器单元214对接,并且与提供各局部处理单元202之间的路由的路由连接处理单元216对接。
深度学习架构可通过学习在每一层中以逐次更高的抽象程度来表示输入、藉此构建输入数据的有用特征表示来执行对象识别任务。以此方式,深度学习解决了传统机器学习的主要瓶颈。在深度学习出现之前,针对对象识别问题的机器学习办法可能严重依赖人类工程设计的特征,或许与浅分类器相结合。浅分类器可以是两类线性分类器,例如,其中可将特征向量分量的加权和与阈值作比较以预测输入属于哪一类。人类工程设计的特征可以是由拥有领域专业知识的工程师针对具体问题领域定制的模板或内核。相反,深度学习架构可学习以表示与人类工程师可能会设计的相似的特征,但它是通过训练来学习的。另外,深度网络可以学习以表示和识别人类可能还没有考虑过的新类型的特征。
深度学习架构可以学习诸特征的分层结构。例如,如果向第一层呈递视觉数据,则第一层可学习以识别输入流中的相对简单的特征(诸如边)。在另一示例中,如果向第一层呈递听觉数据,则第一层可学习以识别特定频率中的频谱功率。取第一层的输出作为输入的第二层可以学习以识别特征组合,诸如对于视觉数据识别简单形状或对于听觉数据识别声音组合。例如,更高层可学习以表示视觉数据中的复杂形状或听觉数据中的词语。再高层可学习以识别常见视觉对象或口语短语。
深度学习架构在被应用于具有自然阶层结构的问题时可能表现特别好。例如,机动交通工具的分类可受益于首先学习以识别轮子、挡风玻璃、以及其他特征。这些特征可在更高层以不同方式被组合以识别轿车、卡车和飞机。
神经网络可被设计成具有各种连通性模式。在前馈网络中,信息从较低层被传递到较高层,其中给定层中的每一个神经元向更高层中的神经元进行传达。如上所述,可在前馈网络的相继层中构建分层式表示。神经网络还可具有回流或反馈(也被称为自顶向下(top-down))连接。在回流连接中,来自给定层中的神经元的输出可被传达给相同层中的另一神经元。回流架构可有助于识别跨越不止一个按顺序递送给该神经网络的输入数据组团块的模式。从给定层中的神经元到较低层中的神经元的连接被称为反馈(或自顶向下)连接。当高层级概念的识别可辅助辨别输入的特定低层级特征时,具有许多反馈连接的网络可能是有助益的。
参照图3A,神经网络的各层之间的连接可以是全连接的(302)或局部连接的(304)。在全连接网络302中,第一层中的神经元可将它的输出传达给第二层中的每一个神经元,从而第二层中的每一个神经元将从第一层中的每一个神经元接收输入。替换地,在局部连接网络304中,第一层中的神经元可连接至第二层中有限数目的神经元。卷积网络306可以是局部连接的,并且被进一步配置成使得与针对第二层中每一个神经元的输入相关联的连接强度被共享(例如,308)。更一般化地,网络的局部连接层可被配置成使得一层中的每一个神经元将具有相同或相似的连通性模式,但其连接强度可具有不同的值(例如,310、312、314和316)。局部连接的连通性模式可能在更高层中产生空间上相异的感受野,这是由于给定区域中的更高层神经元可接收到通过训练被调谐为到网络的总输入的受限部分的性质的输入。
局部连接的神经网络可能非常适合于其中输入的空间位置有意义的问题。例如,被设计成识别来自车载相机的视觉特征的网络300可发展具有不同性质的高层神经元,这取决于它们与图像下部关联还是与图像上部关联。例如,与图像下部相关联的神经元可学习以识别车道标记,而与图像上部相关联的神经元可学习以识别交通信号灯、交通标志等。
DCN可以用受监督式学习来训练。在训练期间,DCN可被呈递图像(诸如限速标志的经裁剪图像326),并且可随后计算“前向传递(forward pass)”以产生输出322。输出322可以是对应于特征(诸如“标志”、“60”、和“100”)的值向量。网络设计者可能希望DCN在输出特征向量中针对其中一些神经元输出高得分,例如与经训练的网络300的输出322中所示的“标志”和“60”对应的那些神经元。在训练之前,DCN产生的输出很可能是不正确的,并且由此可计算实际输出与目标输出之间的误差。DCN的权重可随后被调整以使得DCN的输出得分与目标更紧密地对准。
为了调整权重,学习算法可为权重计算梯度向量。该梯度可指示在权重被略微调整情况下误差将增加或减少的量。在顶层,该梯度可直接对应于连接倒数第二层中的活化神经元与输出层中的神经元的权重的值。在较低层中,该梯度可取决于权重的值以及所计算出的较高层的误差梯度。权重可随后被调整以减小误差。这种调整权重的方式可被称为“反向传播”,因为其涉及在神经网络中的反向传递(“backward pass”)。
在实践中,权重的误差梯度可能是在少量示例上计算的,从而计算出的梯度近似于真实误差梯度。这种近似方法可被称为随机梯度下降法。随机梯度下降法可被重复,直到整个系统可达成的误差率已停止下降或直到误差率已达到目标水平。
在学习之后,DCN可被呈递新图像326并且在网络中的前向传递可产生输出322,其可被认为是该DCN的推断或预测。
深度置信网络(DBN)是包括多层隐藏节点的概率性模型。DBN可被用于提取训练数据集的阶层式表示。DBN可通过堆叠多层受限波尔兹曼机(RBM)来获得。RBM是一类可在输入集上学习概率分布的人工神经网络。由于RBM可在没有关于每一个输入应该被分类到哪个类的信息的情况下学习概率分布,因此RBM经常被用于无监督式学习。使用混合无监督式和受监督式范式,DBN的底部RBM可按无监督方式被训练并且可以用作特征提取器,而顶部RBM可按受监督方式(在来自先前层的输入和目标类的联合分布上)被训练并且可用作分类器。
深度卷积网络(DCN)是卷积网络的网络,其配置有附加的池化和归一化层。DCN已在许多任务上达成现有最先进的性能。DCN可使用受监督式学习来训练,其中输入和输出目标两者对于许多典范是已知的并被用于通过使用梯度下降法来修改网络的权重。
DCN可以是前馈网络。另外,如上所述,从DCN的第一层中的神经元到下一更高层中的神经元群的连接跨第一层中的神经元被共享。DCN的前馈和共享连接可被利用以进行快速处理。DCN的计算负担可比例如类似大小的包括回流或反馈连接的神经网络小得多。
卷积网络的每一层的处理可被认为是空间不变模板或基础投影。如果输入首先被分解成多个通道,诸如彩色图像的红色、绿色和蓝色通道,那么在该输入上训练的卷积网络可被认为是三维的,其具有沿着该图像的轴的两个空间维度以及捕捉颜色信息的第三维度。卷积连接的输出可被认为在后续层318和320中形成特征图,该特征图(例如,320)中的每一个元素从先前层(例如,318)中一定范围的神经元以及从该多个通道中的每一个通道接收输入。特征图中的值可以用非线性(诸如矫正)max(0,x)进一步处理。来自毗邻神经元的值可被进一步池化(这对应于降采样)并可提供附加的局部不变性以及维度缩减。还可通过特征图中神经元之间的侧向抑制来应用归一化,其对应于白化。
深度学习架构的性能可随着有更多被标记的数据点变为可用或随着计算能力提高而提高。现代深度神经网络用比仅仅十五年前可供典型研究者使用的计算资源多数千倍的计算资源来例行地训练。新的架构和训练范式可进一步推升深度学习的性能。经矫正的线性单元可减少被称为消失梯度的训练问题。新的训练技术可减少过度拟合(over-fitting)并因此使更大的模型能够达成更好的普遍化。封装技术可抽象出给定的感受野中的数据并进一步提升总体性能。
图3B是解说示例性深度卷积网络350的框图。深度卷积网络350可包括多个基于连通性和权重共享的不同类型的层。如图3B所示,该示例性深度卷积网络350包括多个卷积块(例如,C1和C2)。每一个卷积块可配置有卷积层、归一化层(LNorm)、和池化层。卷积层可包括一个或多个卷积滤波器,其可被应用于输入数据以生成特征图。尽管仅示出了两个卷积块,但本公开不限于此,而是,根据设计偏好,任何数目的卷积块可被包括在深度卷积网络350中。归一化层可被用于对卷积滤波器的输出进行归一化。例如,归一化层可提供白化或侧向抑制。池化层可提供在空间上的降采样聚集以实现局部不变性和维度缩减。
例如,深度卷积网络的平行滤波器组可任选地基于ARM指令集被加载到SOC 100的CPU 102或GPU 104上以达成高性能和低功耗。在替换实施例中,平行滤波器组可被加载到SOC 100的DSP 106或ISP 116上。另外,DCN可访问其他可存在于SOC上的处理块,诸如专用于传感器114和导航120的处理块。
深度卷积网络350还可包括一个或多个全连接层(例如,FC1和FC2)。深度卷积网络350可进一步包括逻辑回归(LR)层。深度卷积网络350的每一层之间是要被更新的权重(未示出)。每一层的输出可以用作深度卷积网络350中后续层的输入以从第一卷积块C1处提供的输入数据(例如,图像、音频、视频、传感器数据和/或其他输入数据)学习分层式特征表示。
图3C是解说根据本公开的各方面的增强型DCN 380的框图。如本文所指示的,神经网络(例如,DCN 350)的架构和/或学习参数可被修改以促成训练。图3C解说了DCN 380,其与DCN 350相比具有经修改的架构。如图3C所示,卷积层的输出可被提供给大小等于输入图像大小的平均池化层,其随后朝局部逻辑回归成本函数层(例如,LR1和LR2)向上形成突触。通过向每一个块添加局部逻辑回归层,每一个块被启用以更新其自己的权重。换言之,模型无须等待直至网络的底部更新权重。该修改可提高计算速度以进一步促成DCN的训练。以此方式,可减小消失梯度问题的影响。
图4是解说可使人工智能(AI)功能模块化的示例性软件架构400的框图。使用该架构,应用402可被设计成可使得SOC 420的各种处理块(例如CPU 422、DSP 424、GPU 426和/或NPU 428)在该应用402的运行时操作期间执行支持计算。
AI应用402可配置成调用在用户空间404中定义的功能,例如,这些功能可提供对指示该设备当前操作位置的场景的检测和识别。例如,AI应用402可取决于识别出的场景是办公室、报告厅、餐馆、还是室外环境(诸如湖泊)而以不同方式配置话筒和相机。AI应用402可向与在场景检测应用编程接口(API)406中定义的库相关联的经编译程序代码作出请求以提供对当前场景的估计。该请求可最终依赖于配置成基于例如视频和定位数据来提供场景估计的深度神经网络的输出。
运行时引擎408(其可以是运行时框架的经编译代码)可进一步可由AI应用402访问。例如,AI应用402可使得运行时引擎请求特定时间间隔的场景估计或由应用的用户接口检测到的事件触发的场景估计。在使得运行时引擎估计场景时,运行时引擎可进而发送信号给在SOC 420上运行的操作系统410(诸如Linux内核412)。操作系统410进而可使得在CPU422、DSP 424、GPU 426、NPU 428、或其某种组合上执行计算。CPU 422可被操作系统直接访问,而其他处理块可通过驱动器(诸如用于DSP 424、GPU 426、或NPU 428的驱动器414-418)被访问。在示例性示例中,深度神经网络可被配置成在处理块的组合(诸如CPU 422和GPU426)上运行,或可在NPU 428(如果存在的话)上运行。
图5是解说智能手机502上的AI应用的运行时操作500的框图。AI应用可包括预处理模块504,该预处理模块504可被配置(例如,被使用JAVA编程语言配置)成转换图像506的格式并随后对该图像进行剪裁和/或调整大小(508)。经预处理的图像可接着被传达给分类应用510,该分类应用510包含场景检测后端引擎512,该场景检测后端引擎512可被配置(例如,被使用C编程语言配置)成基于视觉输入来检测和分类场景。场景检测后端引擎512可被配置成进一步通过缩放(516)和剪裁(518)来预处理(514)该图像。例如,该图像可被缩放和剪裁以使所得到的图像是224像素×224像素。这些维度可映射到神经网络的输入维度。神经网络可由深度神经网络块520配置以使得SOC 100的各种处理块进一步借助深度神经网络来处理图像像素。深度神经网络的结果可随后被取阈(522)并被传递通过分类应用510中的指数平滑块524。经平滑的结果可接着使得智能手机502的设置和/或显示改变。
在一种配置中,机器学习模型(诸如,深度卷积网络)被配置成用于选择数个网络架构作为数据库的一部分。该模型还被配置成用于训练每一个架构以生成被存储在数据库中的对应验证误差,以及基于数据库中的验证误差来估计用于标识良好架构集合和不良架构集合的阈值误差。该模型被进一步配置成用于至少部分地基于作为良好架构的函数的度量来选取对应于下一架构的下一潜在超参数;以及从各下一架构中选择一架构。
该模型包括用于选择数个架构的装置、训练装置、估计装置、选取装置和/或用于选择架构的装置。在一个方面,用于选择数个架构的装置、训练装置、估计装置、选取装置和/或用于选择架构的装置可以是被配置成执行所叙述的功能的通用处理器102、与通用处理器102相关联的程序存储器、存储器块118、局部处理单元202、和/或路由连接处理单元216。在另一配置中,前述装置可以是被配置成执行由前述装置所叙述的功能的任何模块或任何装置。
根据本公开的某些方面,每一个局部处理单元202可被配置成基于机器网络的一个或多个期望功能特征来确定机器网络的参数,以及随着所确定的参数被进一步适配、调谐和更新来使这一个或多个功能特征朝着期望的功能特征发展。
图6是解说根据本公开的各方面的选择用于训练深度卷积网络的超参数的方法600的框图。在框602,该过程生成神经元模型(例如,DCN)的数据库。对于数据库中所包括的每一个神经元模型,可指定超参数和误差(例如,验证误差)。在框604,该过程可选择下一超参数(λt+1)。下一超参数可被选取成使预期效用函数E(u(e))最大化。在一些方面,下一超参数可以基于数据库中良好模型(误差低于误差阈值的模型)与数据库中不良模型(误差高于误差阈值的模型)的比率(l(λ)/g(λ))、单单基于良好模型、或者基于其他选择准则来选择。
在框606,该过程可对应于下一超参数选择训练神经网络。该神经网络可以使用梯度下降类型学习过程或其他训练过程来训练。在框608,该过程可例如使用验证、保持、测试或其他数据集来估计神经网络模型的误差。在框610,该过程确定新模型是否满足数据库添加准则。数据库添加准则可包括误差阈值。数据库误差阈值可包括误差阈值e*或第二误差阈值。例如,如果所估计的误差低于误差阈值,则神经元模型可满足数据库添加准则。
第二误差阈值可以例如基于数据库中的各模型的最高估计误差。在另一示例中,第二误差阈值可以例如基于数据库中的各良好模型的最高估计误差。当然,不同和/或附加的数据库添加准则可被用来根据设计偏好和存储考量来确定是否要添加神经网络模型。
如果神经网络满足该准则,则在框612可向数据库添加新网络模型。否则,在框614可丢弃神经网络模型。随后,该过程返回框604以选择下一超参数。
选择DCN模型的数据库D1:t
在一些方面,模型数目t可以基于来自随机搜索的数据来选取。在一个示例中,可以生成M个随机DCN网络拓扑。例如,值M可被选择为使得<e1:M>-<e1:M+∈>≤δ,∈=25,δ=0.05,或者使用其他合适方法来选择。可选择大小为T的实验试验。例如,可使用包含子集T≤随机DCN网络架构数目的试验。根据M个随机DCN网络拓扑,可生成总共个实验试验。对于大小为T的给定试验j,j=1…ET,可标识最准确的网络(例如,产生最高测试准确度的网络)。相应地,t可被选择(t=T)以使得aj大于关于的分布的95%置信区间的上界。
图7是解说示例随机搜索效率曲线的示图。在图7的示例中,128个随机DCN架构被训练和划分到各集合中。为每一个DCN架构集合提供盒形图以解说最准确的DCN架构的分布。X轴表示实验大小,而Y轴表示准确度。盒形图示出关于给定DCN集合的误差。每个盒子中的实线(例如,702)提供了关于对应DCN集合的平均误差。相应地,可评估DCN集合以确定数据库中提供至少一个良好架构(例如,误差低于阈值的架构)的最小数目t个DCN。
选择下一超参数λt+1
在一些方面,可选择系列中的下一超参数。对于γ<1的给定选择,e1:t的经验分布可被用来估计误差阈值e*。数据库中t个DCN模型的集合可被分割或划分成两个集合,集合L包含e<e*的DCN模型(例如,良好模型),而集合G包括剩余的DCN模型(例如,不良模型)。从L中的DCN模型选取的超参数的分布可由l(λ)来表示,而g(λ)可表示从G中的DCN模型选取的超参数的分布。
示例性解1
在一个示例性方面,t个DCN架构的集合可随机生成,其中λi,i=1…t,从经验分布l(λ)中选择。选择该办法可有助于例如在保持数据集上产生高准确度输出的架构周围探索DCN超参数的空间。下一架构从良好集合中选择,其中架构的最高值在良好集合内。
示例性解2
在另一示例性方面,可约束超参数的搜索空间。在该示例中,可随机生成具有t个DCN架构的集合,其中,λj从经验分布l(λ)中选择。对于每一个DCN网络j,j=1…t,评估R(λj)=l(λj)/g(λj)。选择如此,该办法探索了超参数的受限空间并且可以比先前示例中更快地产生收敛解。该示例还基于比率、而非仅仅良好架构集合来进行评估。
示例性解3
在又一示例性方面,可随机生成具有t个DCN架构的集合。对于每一个DCN网络j,j=1…t,评估R(λj)=l(λj)/g(λj)。选择该办法可被用来在大得多的超参数空间上探索架构。在该办法中,从任意随机分布、而非良好分布进行选择。在一些方面,该选择可以基于比率。
示例性解4
在进一步示例性方面,可随机生成具有t个DCN架构的集合。对于每一个DCN网络j,j=1…t,评估R(λj)=l(λj)。选择在该示例中,λ可从均匀随机分布选取。该办法还可导致对大得多的超参数空间的探索,其中到达λ的可能性更高,其中网络将提供增强的性能。在该办法中,从任意随机分布、而非良好分布进行选择。该选择也可基于良好架构集合。
在另一方面,可采用混合策略,其中在任何给定时间t,根据具有某一预定概率p{j}的先前四个解中的任一者来选取系列中的下一超参数λt+1,其中j={以上四个示例性解中的每一者}。例如,第一解可以在10%的时间选择,第二解可以在40%的时间选择,第三解在30%的时间选择,并且第四解在20%的时间选择。
在一些方面,可从给定数据库选择超参数λ。例如,λ可以如下选择:
1.从λ∈l(λ)的经验分布选取λ。
2.从具有先验的λ∈l(λ)经验分布选取λ以计及λ的经验分布中的给定数据点未被采样的情形。
3.从对λ∈l(λ)的分布的高斯拟合的混合选取λ。
4.从均匀随机分布选取λ。
在一些方面,可通过在λ的空间上搜索来选择超参数。如以上所指示的,用于训练DCN的超参数可被划分成两个类别:λ={λa,λl},其中λa是与DCN架构相关联的超参数集合,并且λl是与被用来训练DCN的学习过程相关联的超参数。用于选择超参数的其中两种可能方案如下:
1.联合超参数选择:执行对λl和λa的联合选择。
2.串行超参数选择:将超参数选择问题分开为两部分。对于给定λl,首先选择架构超参数λa以标识关于给定问题的较优(例如,较高准确度)DCN架构。一旦标识出较优DCN架构,就选择学习超参数λl以进一步增强DCN的性能。
当然,超参数选择可基于验证误差、成本(例如,计算复杂度、存储器占用)、其组合以及其他神经网络和系统设计考量来进一步优化或增强。
图8解说了用于选择用于训练深度卷积网络的超参数的方法800。在框802,该过程选择数个网络架构作为数据库的一部分。在一些方面,这些网络架构中的每一者可包括一个或多个局部逻辑回归层。
在框804,该过程训练这些网络架构中的每一者以生成对应验证误差。验证误差可被存储在数据库中。在框806,该过程基于数据库中的验证误差来估计用于标识良好架构集合和不良架构集合的阈值误差。
在框808,该过程基于作为良好架构的函数的度量来选取对应于下一架构的下一潜在超参数。在一些方面,下一潜在超参数可通过从良好架构集合中选择超参数以及基于良好架构集合的分布评估下一潜在超参数来选取。
最后,在框810,该过程从各下一架构中选择具有最低验证误差的架构。在一些方面,选择架构包括联合地选择架构超参数以及学习超参数。
在一些方面,该过程可进一步基于所选择的架构来选择学习超参数。该过程还可选择附加架构和附加学习超参数。软概率可以从附加架构和学习超参数来估计。该过程可进而基于所估计的软概率来标识与软概率相关联的附加超参数。这样做,可进一步增强神经模型性能。
在一个方面,该过程可通过以下操作来选取下一潜在超参数:从良好架构集合选择架构超参数、学习超参数和软概率超参数中的一者或多者,以及基于良好架构集合的分布来评估下一潜在超参数。
在另一方面,该过程可通过以下操作来选取下一潜在超参数:从良好架构集合选择架构超参数、学习超参数和软概率超参数中的一者或多者,以及基于良好架构集合的分布与不良架构集合的分布的比率来评估下一潜在超参数。
在又一方面,下一潜在超参数可通过以下操作来选取:从随机分布选择架构超参数、学习超参数和软概率超参数中的一者或多者,以及基于良好架构集合的分布与不良架构集合的分布的比率来评估下一潜在超参数。
在又一方面,下一潜在超参数可通过以下操作来选取:从随机分布选择架构超参数、学习超参数和软概率超参数中的一者或多者,以及基于良好架构集合的分布来评估下一潜在超参数。
在又一方面,下一潜在超参数可通过以下操作来选取:从良好架构集合或随机分布选择架构超参数、学习超参数和软概率超参数中的一者或多者,以及基于良好架构集合的分布与不良架构集合的分布的比率或者良好架构集合的分布基于概率分布来评估下一潜在超参数。
以上所描述的方法的各种操作可由能够执行相应功能的任何合适的装置来执行。这些装置可包括各种硬件和/或(诸)软件组件和/或(诸)模块,包括但不限于电路、专用集成电路(ASIC)、或处理器。一般而言,在附图中有解说的操作的场合,那些操作可具有带相似编号的相应配对装置加功能组件。
如本文所使用的,术语“确定”涵盖各种各样的动作。例如,“确定”可包括演算、计算、处理、推导、研究、查找(例如,在表、数据库或其他数据结构中查找)、探知及诸如此类。另外,“确定”可包括接收(例如接收信息)、访问(例如访问存储器中的数据)、及类似动作。而且,“确定”可包括解析、选择、选取、确立及类似动作。
如本文中所使用的,引述一列项目中的“至少一个”的短语是指这些项目的任何组合,包括单个成员。作为示例,“a、b或c中的至少一个”旨在涵盖:a、b、c、a-b、a-c、b-c、以及a-b-c。
结合本公开所描述的各种解说性逻辑框、模块、以及电路可用设计成执行本文所描述功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列信号(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件或其任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,处理器可以是任何市售的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协同的一个或多个微处理器、或任何其它此类配置。
结合本公开描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中实施。软件模块可驻留在本领域所知的任何形式的存储介质中。可使用的存储介质的一些示例包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、寄存器、硬盘、可移动盘、CD-ROM,等等。软件模块可包括单条指令、或许多条指令,且可分布在若干不同的代码段上,分布在不同的程序间以及跨多个存储介质分布。存储介质可被耦合到处理器以使得该处理器能从/向该存储介质读写信息。在替换方案中,存储介质可以被整合到处理器。
本文所公开的方法包括用于达成所描述的方法的一个或多个步骤或动作。这些方法步骤和/或动作可以彼此互换而不会脱离权利要求的范围。换言之,除非指定了步骤或动作的特定次序,否则具体步骤和/或动作的次序和/或使用可以改动而不会脱离权利要求的范围。
所描述的功能可在硬件、软件、固件或其任何组合中实现。如果以硬件实现,则示例硬件配置可包括设备中的处理系统。处理系统可以用总线架构来实现。取决于处理系统的具体应用和整体设计约束,总线可包括任何数目的互连总线和桥接器。总线可将包括处理器、机器可读介质、以及总线接口的各种电路链接在一起。总线接口可用于尤其将网络适配器等经由总线连接至处理系统。网络适配器可用于实现信号处理功能。对于某些方面,用户接口(例如,按键板、显示器、鼠标、操纵杆,等等)也可以被连接到总线。总线还可以链接各种其他电路,诸如定时源、外围设备、稳压器、功率管理电路以及类似电路,它们在本领域中是众所周知的,因此将不再进一步描述。
处理器可负责管理总线和一般处理,包括执行存储在机器可读介质上的软件。处理器可用一个或多个通用和/或专用处理器来实现。示例包括微处理器、微控制器、DSP处理器、以及其他能执行软件的电路系统。软件应当被宽泛地解释成意指指令、数据、或其任何组合,无论是被称作软件、固件、中间件、微代码、硬件描述语言、或其他。作为示例,机器可读介质可包括随机存取存储器(RAM)、闪存、只读存储器(ROM)、可编程只读存储器(PROM)、可擦式可编程只读存储器(EPROM)、电可擦式可编程只读存储器(EEPROM)、寄存器、磁盘、光盘、硬驱动器、或者任何其他合适的存储介质、或其任何组合。机器可读介质可被实施在计算机程序产品中。该计算机程序产品可以包括包装材料。
在硬件实现中,机器可读介质可以是处理系统中与处理器分开的一部分。然而,如本领域技术人员将容易领会的,机器可读介质或其任何部分可在处理系统外部。作为示例,机器可读介质可包括传输线、由数据调制的载波、和/或与设备分开的计算机产品,所有这些都可由处理器通过总线接口来访问。替换地或补充地,机器可读介质或其任何部分可被集成到处理器中,诸如高速缓存和/或通用寄存器文件可能就是这种情形。虽然所讨论的各种组件可被描述为具有特定位置,诸如局部组件,但它们也可按各种方式来配置,诸如某些组件被配置成分布式计算系统的一部分。
处理系统可以被配置为通用处理系统,该通用处理系统具有一个或多个提供处理器功能性的微处理器、以及提供机器可读介质中的至少一部分的外部存储器,它们都通过外部总线架构与其他支持电路系统链接在一起。替换地,该处理系统可以包括一个或多个神经元形态处理器以用于实现本文所述的神经元模型和神经系统模型。作为另一替换方案,处理系统可以用带有集成在单块芯片中的处理器、总线接口、用户接口、支持电路系统、和至少一部分机器可读介质的专用集成电路(ASIC)来实现,或者用一个或多个现场可编程门阵列(FPGA)、可编程逻辑器件(PLD)、控制器、状态机、门控逻辑、分立硬件组件、或者任何其他合适的电路系统、或者能执行本公开通篇所描述的各种功能性的电路的任何组合来实现。取决于具体应用和加诸于整体系统上的总设计约束,本领域技术人员将认识到如何最佳地实现关于处理系统所描述的功能性。
机器可读介质可包括数个软件模块。这些软件模块包括当由处理器执行时使处理系统执行各种功能的指令。这些软件模块可包括传送模块和接收模块。每个软件模块可以驻留在单个存储设备中或者跨多个存储设备分布。作为示例,当触发事件发生时,可以从硬驱动器中将软件模块加载到RAM中。在软件模块执行期间,处理器可以将一些指令加载到高速缓存中以提高访问速度。随后可将一个或多个高速缓存行加载到通用寄存器文件中以供处理器执行。在以下述及软件模块的功能性时,将理解此类功能性是在处理器执行来自该软件模块的指令时由该处理器来实现的。此外,应领会,本公开的各方面产生对处理器、计算机、机器或实现此类方面的其它系统的机能的改进。
如果以软件实现,则各功能可作为一条或多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,这些介质包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,此类计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其他光盘存储、磁盘存储或其他磁存储设备、或能用于携带或存储指令或数据结构形式的期望程序代码且能被计算机访问的任何其他介质。另外,任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或无线技术(诸如红外(IR)、无线电、以及微波)从web网站、服务器、或其他远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外、无线电、以及微波)就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘、和蓝光碟,其中盘(disk)常常磁性地再现数据,而碟(disc)用激光来光学地再现数据。因此,在一些方面,计算机可读介质可包括非瞬态计算机可读介质(例如,有形介质)。另外,对于其他方面,计算机可读介质可包括瞬态计算机可读介质(例如,信号)。上述的组合应当也被包括在计算机可读介质的范围内。
因此,某些方面可包括用于执行本文中给出的操作的计算机程序产品。例如,此类计算机程序产品可包括其上存储(和/或编码)有指令的计算机可读介质,这些指令能由一个或多个处理器执行以执行本文中所描述的操作。对于某些方面,计算机程序产品可包括包装材料。
此外,应当领会,用于执行本文中所描述的方法和技术的模块和/或其它恰适装置能由用户终端和/或基站在适用的场合下载和/或以其他方式获得。例如,此类设备能被耦合至服务器以促成用于执行本文中所描述的方法的装置的转移。替换地,本文所述的各种方法能经由存储装置(例如,RAM、ROM、诸如压缩碟(CD)或软盘等物理存储介质等)来提供,以使得一旦将该存储装置耦合至或提供给用户终端和/或基站,该设备就能获得各种方法。此外,可利用适于向设备提供本文所描述的方法和技术的任何其他合适的技术。
将理解,权利要求并不被限定于以上所解说的精确配置和组件。可在以上所描述的方法和装置的布局、操作和细节上作出各种改动、更换和变形而不会脱离权利要求的范围。
Claims (22)
1.一种选择用于训练深度卷积网络的超参数的方法,包括:
选择数个网络架构作为数据库的一部分,所述网络架构中的每一者包括至少一个局部逻辑回归层;
训练所述网络架构中的每一者以生成被存储在所述数据库中的对应验证误差;
至少部分地基于所述数据库中的验证误差来估计用于标识良好网络架构集合和不良网络架构集合的阈值误差;
至少部分地基于作为所述良好网络架构集合的函数的度量来选取对应于下一网络架构的下一潜在超参数;以及
从多个下一网络架构中选择具有最低验证误差的网络架构。
2.如权利要求1所述的方法,其特征在于,所述网络架构中的每一者包括至少一个逻辑回归层。
3.如权利要求1所述的方法,其特征在于,进一步包括,至少部分地基于所选择的网络架构来选择学习超参数。
4.如权利要求3所述的方法,其特征在于,进一步包括:
选择附加网络架构;
选择附加学习超参数;
从所述附加网络架构和学习超参数来估计软概率;以及
至少部分地基于所估计的软概率来标识与软概率相关联的附加超参数。
5.如权利要求1所述的方法,其特征在于,选择所述网络架构包括:联合地选择架构超参数以及学习超参数。
6.如权利要求1所述的方法,其特征在于,进一步包括,通过以下操作来选取所述下一潜在超参数:从所述良好网络架构集合选择架构超参数、学习超参数或软概率超参数中的至少一者,以及至少部分地基于所述良好网络架构集合的分布来评估所述下一潜在超参数。
7.如权利要求1所述的方法,其特征在于,进一步包括,通过以下操作来选取所述下一潜在超参数:从所述良好网络架构集合选择架构超参数、学习超参数或软概率超参数中的至少一者,以及至少部分地基于所述良好网络架构集合的分布与所述不良网络架构集合的分布的比率来评估所述下一潜在超参数。
8.如权利要求1所述的方法,其特征在于,进一步包括,通过以下操作来选取所述下一潜在超参数:从随机分布选择架构超参数、学习超参数或软概率超参数中的至少一者,以及至少部分地基于所述良好网络架构集合的分布与所述不良网络架构集合的分布的比率来评估所述下一潜在超参数。
9.如权利要求1所述的方法,其特征在于,进一步包括,通过以下操作来选取所述下一潜在超参数:从随机分布选择架构超参数、学习超参数或软概率超参数中的至少一者,以及至少部分地基于所述良好网络架构集合的分布来评估所述下一潜在超参数。
10.如权利要求1所述的方法,其特征在于,进一步包括,通过以下操作来选取所述下一潜在超参数:
从所述良好网络架构集合或随机分布选择架构超参数、学习超参数或软概率超参数中的至少一者,以及
至少部分地基于所述良好网络架构集合的分布与所述不良网络架构集合的分布的比率或者所述良好网络架构集合的分布至少部分地基于概率分布来评估所述下一潜在超参数。
11.一种用于选择用于训练深度卷积网络的超参数的装置,包括:
存储器;以及
至少一个处理器,其耦合至所述存储器并被配置成:
选择数个网络架构作为数据库的一部分,所述网络架构中的每一者包括至少一个局部逻辑回归层;
训练所述网络架构中的每一者以生成被存储在所述数据库中的对应验证误差;
至少部分地基于所述数据库中的验证误差来估计用于标识良好网络架构集合和不良网络架构集合的阈值误差;
至少部分地基于作为所述良好网络架构集合的函数的度量来选取对应于下一网络架构的下一潜在超参数;以及
从多个下一网络架构中选择具有最低验证误差的网络架构。
12.如权利要求11所述的装置,其特征在于,所述网络架构中的每一者包括至少一个逻辑回归层。
13.如权利要求11所述的装置,其特征在于,所述至少一个处理器被进一步配置成至少部分地基于所选择的网络架构来选择学习超参数。
14.如权利要求13所述的装置,其特征在于,所述至少一个处理器被进一步配置成:
选择附加网络架构;
选择附加学习超参数;
从所述附加网络架构和学习超参数来估计软概率;以及
至少部分地基于所估计的软概率来标识与软概率相关联的附加超参数。
15.如权利要求11所述的装置,其特征在于,所述至少一个处理器被进一步配置成通过联合地选择架构超参数以及学习超参数来选择所述网络架构。
16.如权利要求11所述的装置,其特征在于,所述至少一个处理器被进一步配置成通过以下操作来选取所述下一潜在超参数:从所述良好网络架构集合选择架构超参数、学习超参数或软概率超参数中的至少一者,以及至少部分地基于所述良好网络架构集合的分布来评估所述下一潜在超参数。
17.如权利要求11所述的装置,其特征在于,所述至少一个处理器被进一步配置成通过以下操作来选取所述下一潜在超参数:从所述良好网络架构集合选择架构超参数、学习超参数或软概率超参数中的至少一者,以及至少部分地基于所述良好网络架构集合的分布与所述不良网络架构集合的分布的比率来评估所述下一潜在超参数。
18.如权利要求11所述的装置,其特征在于,所述至少一个处理器被进一步配置成通过以下操作来选取所述下一潜在超参数:从随机分布选择架构超参数、学习超参数或软概率超参数中的至少一者,以及至少部分地基于所述良好网络架构集合的分布与所述不良网络架构集合的分布的比率来评估所述下一潜在超参数。
19.如权利要求11所述的装置,其特征在于,所述至少一个处理器被进一步配置成通过以下操作来选取所述下一潜在超参数:从随机分布选择架构超参数、学习超参数或软概率超参数中的至少一者,以及至少部分地基于所述良好网络架构集合的分布来评估所述下一潜在超参数。
20.如权利要求11所述的装置,其特征在于,所述至少一个处理器被进一步配置成通过以下操作来选取所述下一潜在超参数:从所述良好网络架构集合或随机分布选择架构超参数、学习超参数或软概率超参数中的至少一者,以及至少部分地基于所述良好网络架构集合的分布与所述不良网络架构集合的分布的比率或者所述良好网络架构集合的分布至少部分地基于概率分布来评估所述下一潜在超参数。
21.一种用于选择用于训练深度卷积网络的超参数的设备,包括:
用于选择数个网络架构作为数据库的一部分的装置,所述网络架构中的每一者包括至少一个局部逻辑回归层;
用于训练所述网络架构中的每一者以生成被存储在所述数据库中的对应验证误差的装置;
用于至少部分地基于所述数据库中的验证误差来估计用于标识良好网络架构集合和不良网络架构集合的阈值误差的装置;
用于至少部分地基于作为所述良好网络架构集合的函数的度量来选取对应于下一网络架构的下一潜在超参数的装置;以及
用于从多个下一网络架构中选择具有最低验证误差的网络架构的装置。
22.一种其上编码有用于选择用于训练深度卷积网络的超参数的程序代码的非瞬态计算机可读介质,所述程序代码由处理器执行并且包括:
用于选择数个网络架构作为数据库的一部分的程序代码,所述网络架构中的每一者包括至少一个局部逻辑回归层;
用于训练所述网络架构中的每一者以生成被存储在所述数据库中的对应验证误差的程序代码;
用于至少部分地基于所述数据库中的验证误差来估计用于标识良好网络架构集合和不良网络架构集合的阈值误差的程序代码;
用于至少部分地基于作为所述良好网络架构集合的函数的度量来选取对应于下一网络架构的下一潜在超参数的程序代码;以及
用于从多个下一网络架构中选择具有最低验证误差的网络架构的程序代码。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562109470P | 2015-01-29 | 2015-01-29 | |
US62/109,470 | 2015-01-29 | ||
US14/848,296 US10275719B2 (en) | 2015-01-29 | 2015-09-08 | Hyper-parameter selection for deep convolutional networks |
US14/848,296 | 2015-09-08 | ||
PCT/US2015/065327 WO2016122787A1 (en) | 2015-01-29 | 2015-12-11 | Hyper-parameter selection for deep convolutional networks |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107209873A true CN107209873A (zh) | 2017-09-26 |
CN107209873B CN107209873B (zh) | 2021-06-25 |
Family
ID=55066844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580074740.2A Active CN107209873B (zh) | 2015-01-29 | 2015-12-11 | 用于深度卷积网络的超参数选择 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10275719B2 (zh) |
EP (1) | EP3251058A1 (zh) |
CN (1) | CN107209873B (zh) |
WO (1) | WO2016122787A1 (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109242105A (zh) * | 2018-08-17 | 2019-01-18 | 第四范式(北京)技术有限公司 | 机器学习模型中超参数的调优方法、装置、设备及介质 |
CN109657805A (zh) * | 2018-12-07 | 2019-04-19 | 泰康保险集团股份有限公司 | 超参数确定方法、装置、电子设备及计算机可读介质 |
CN109816116A (zh) * | 2019-01-17 | 2019-05-28 | 腾讯科技(深圳)有限公司 | 机器学习模型中超参数的优化方法及装置 |
CN109840501A (zh) * | 2019-01-31 | 2019-06-04 | 深圳市商汤科技有限公司 | 一种图像处理方法及装置、电子设备、存储介质 |
CN110109428A (zh) * | 2019-04-19 | 2019-08-09 | 北京戴纳实验科技有限公司 | 一种用于实验室设备的险情监测系统 |
CN110110861A (zh) * | 2019-05-09 | 2019-08-09 | 北京市商汤科技开发有限公司 | 确定模型超参数及模型训练的方法和装置、存储介质 |
CN111149117A (zh) * | 2017-09-28 | 2020-05-12 | 甲骨文国际公司 | 机器学习和深度学习模型的基于梯度的自动调整 |
CN111357019A (zh) * | 2017-11-30 | 2020-06-30 | 国际商业机器公司 | 通过对权重矩阵实施空间局部性并实现频率压缩来压缩(多个)深度网络的全连接/递归层 |
CN111406263A (zh) * | 2018-11-28 | 2020-07-10 | 深圳市大疆创新科技有限公司 | 神经网络架构搜索的方法与装置 |
CN111508000A (zh) * | 2020-04-14 | 2020-08-07 | 北京交通大学 | 基于参数空间噪声网络的深度强化学习目标跟踪方法 |
WO2021248443A1 (en) * | 2020-06-12 | 2021-12-16 | Qualcomm Incorporated | Generate source code to build secure machine learning engine for edge devices and existing toolchains |
US11977974B2 (en) | 2017-11-30 | 2024-05-07 | International Business Machines Corporation | Compression of fully connected / recurrent layers of deep network(s) through enforcing spatial locality to weight matrices and effecting frequency compression |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9536293B2 (en) * | 2014-07-30 | 2017-01-03 | Adobe Systems Incorporated | Image assessment using deep convolutional neural networks |
US9953425B2 (en) | 2014-07-30 | 2018-04-24 | Adobe Systems Incorporated | Learning image categorization using related attributes |
CN107786867A (zh) * | 2016-08-26 | 2018-03-09 | 原相科技股份有限公司 | 基于深度学习架构的图像辨识方法及系统 |
WO2018063840A1 (en) * | 2016-09-28 | 2018-04-05 | D5A1 Llc; | Learning coach for machine learning system |
KR102532658B1 (ko) * | 2016-10-28 | 2023-05-15 | 구글 엘엘씨 | 신경 아키텍처 검색 |
US11915152B2 (en) | 2017-03-24 | 2024-02-27 | D5Ai Llc | Learning coach for machine learning system |
CN110832509B (zh) * | 2017-04-12 | 2023-11-03 | 渊慧科技有限公司 | 使用神经网络的黑盒优化 |
WO2018195307A1 (en) * | 2017-04-19 | 2018-10-25 | Aibrain, Inc. | Scalable framework for autonomous artificial intelligence characters |
JP6963627B2 (ja) * | 2017-07-21 | 2021-11-10 | グーグル エルエルシーGoogle LLC | 畳み込みニューラルネットワークのためのニューラルアーキテクチャ検索 |
US11397887B2 (en) * | 2017-09-26 | 2022-07-26 | Amazon Technologies, Inc. | Dynamic tuning of training parameters for machine learning algorithms |
WO2019067960A1 (en) * | 2017-09-28 | 2019-04-04 | D5Ai Llc | AGGRESSIVE DEVELOPMENT USING COOPERATIVE GENERATORS |
US10679129B2 (en) | 2017-09-28 | 2020-06-09 | D5Ai Llc | Stochastic categorical autoencoder network |
CN108052658B (zh) * | 2017-12-28 | 2021-12-21 | 北京百度网讯科技有限公司 | 基于人工智能的查询信息纠错构架生成方法和装置 |
CN111602149B (zh) * | 2018-01-30 | 2024-04-02 | D5Ai有限责任公司 | 自组织偏序网络 |
US11321612B2 (en) | 2018-01-30 | 2022-05-03 | D5Ai Llc | Self-organizing partially ordered networks and soft-tying learned parameters, such as connection weights |
WO2019216404A1 (ja) * | 2018-05-10 | 2019-11-14 | パナソニックIpマネジメント株式会社 | ニューラルネットワーク構築装置、情報処理装置、ニューラルネットワーク構築方法及びプログラム |
US11474485B2 (en) | 2018-06-15 | 2022-10-18 | Johnson Controls Tyco IP Holdings LLP | Adaptive training and deployment of single chiller and clustered chiller fault detection models for connected chillers |
US11859846B2 (en) | 2018-06-15 | 2024-01-02 | Johnson Controls Tyco IP Holdings LLP | Cost savings from fault prediction and diagnosis |
US20190294999A1 (en) * | 2018-06-16 | 2019-09-26 | Moshe Guttmann | Selecting hyper parameters for machine learning algorithms based on past training results |
CN112334915A (zh) * | 2018-06-25 | 2021-02-05 | 奥林巴斯株式会社 | 运算处理装置 |
US11569981B1 (en) * | 2018-08-28 | 2023-01-31 | Amazon Technologies, Inc. | Blockchain network based on machine learning-based proof of work |
CN113168509A (zh) * | 2018-11-15 | 2021-07-23 | 高通股份有限公司 | 通过球体回归的n-球体上的坐标估计 |
DE102019206620A1 (de) * | 2019-04-18 | 2020-10-22 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zum Erstellen eines neuronalen Netzes |
US11657118B2 (en) * | 2019-05-23 | 2023-05-23 | Google Llc | Systems and methods for learning effective loss functions efficiently |
US11650968B2 (en) * | 2019-05-24 | 2023-05-16 | Comet ML, Inc. | Systems and methods for predictive early stopping in neural network training |
CN110363286A (zh) * | 2019-06-27 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 神经网络模型的生成方法及装置 |
US11003825B1 (en) * | 2019-09-26 | 2021-05-11 | Cadence Design Systems, Inc. | System, method, and computer program product for optimization in an electronic design |
TWI769418B (zh) | 2019-12-05 | 2022-07-01 | 財團法人工業技術研究院 | 深度神經網路超參數選擇方法及電子裝置 |
WO2021188354A1 (en) * | 2020-03-14 | 2021-09-23 | DataRobot, Inc. | Automated and adaptive design and training of neural networks |
CN113495986A (zh) * | 2020-03-20 | 2021-10-12 | 华为技术有限公司 | 数据处理的方法与装置 |
US11409564B2 (en) | 2020-07-31 | 2022-08-09 | International Business Machines Corporation | Resource allocation for tuning hyperparameters of large-scale deep learning workloads |
US11934875B2 (en) | 2020-12-09 | 2024-03-19 | Dell Products L.P. | Method and system for maintaining composed systems |
US11928515B2 (en) | 2020-12-09 | 2024-03-12 | Dell Products L.P. | System and method for managing resource allocations in composed systems |
US11853782B2 (en) | 2020-12-09 | 2023-12-26 | Dell Products L.P. | Method and system for composing systems using resource sets |
US11809911B2 (en) | 2020-12-09 | 2023-11-07 | Dell Products L.P. | Resuming workload execution in composed information handling system |
US11698821B2 (en) | 2020-12-09 | 2023-07-11 | Dell Products L.P. | Composable information handling systems in an open network using access control managers |
US11809912B2 (en) | 2020-12-09 | 2023-11-07 | Dell Products L.P. | System and method for allocating resources to perform workloads |
US20220179750A1 (en) * | 2020-12-09 | 2022-06-09 | Dell Products L.P. | System and method for intent based data protection |
US11675665B2 (en) | 2020-12-09 | 2023-06-13 | Dell Products L.P. | System and method for backup generation using composed systems |
US11675625B2 (en) | 2020-12-09 | 2023-06-13 | Dell Products L.P. | Thin provisioning of resources using SCPS and a bidding system |
US11693703B2 (en) | 2020-12-09 | 2023-07-04 | Dell Products L.P. | Monitoring resource utilization via intercepting bare metal communications between resources |
US11704159B2 (en) | 2020-12-09 | 2023-07-18 | Dell Products L.P. | System and method for unified infrastructure architecture |
US11687280B2 (en) | 2021-01-28 | 2023-06-27 | Dell Products L.P. | Method and system for efficient servicing of storage access requests |
US11797341B2 (en) | 2021-01-28 | 2023-10-24 | Dell Products L.P. | System and method for performing remediation action during operation analysis |
US11768612B2 (en) | 2021-01-28 | 2023-09-26 | Dell Products L.P. | System and method for distributed deduplication in a composed system |
US11675916B2 (en) | 2021-01-28 | 2023-06-13 | Dell Products L.P. | Method and system for limiting data accessibility in composed systems |
US11947697B2 (en) | 2021-07-22 | 2024-04-02 | Dell Products L.P. | Method and system to place resources in a known state to be used in a composed information handling system |
US11928506B2 (en) | 2021-07-28 | 2024-03-12 | Dell Products L.P. | Managing composition service entities with complex networks |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090150126A1 (en) * | 2007-12-10 | 2009-06-11 | Yahoo! Inc. | System and method for sparse gaussian process regression using predictive measures |
CN103425743A (zh) * | 2013-07-17 | 2013-12-04 | 上海金自天正信息技术有限公司 | 基于贝叶斯神经网络算法的蒸汽管网预测系统 |
WO2014087652A1 (ja) * | 2012-12-06 | 2014-06-12 | 日本電気株式会社 | 画像処理装置及び画像処理方法 |
CN103886344A (zh) * | 2014-04-14 | 2014-06-25 | 西安科技大学 | 一种图像型火灾火焰识别方法 |
CN104156791A (zh) * | 2014-08-29 | 2014-11-19 | 哈尔滨工业大学 | 基于ls-svm的概率集成学习锂离子电池剩余寿命预测方法 |
US20140358831A1 (en) * | 2013-05-30 | 2014-12-04 | President And Fellows Of Harvard College | Systems and methods for bayesian optimization using non-linear mapping of input |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7565334B2 (en) * | 2006-11-17 | 2009-07-21 | Honda Motor Co., Ltd. | Fully bayesian linear regression |
US9099083B2 (en) | 2013-03-13 | 2015-08-04 | Microsoft Technology Licensing, Llc | Kernel deep convex networks and end-to-end learning |
US9330362B2 (en) | 2013-05-15 | 2016-05-03 | Microsoft Technology Licensing, Llc | Tuning hyper-parameters of a computer-executable learning algorithm |
US9484015B2 (en) | 2013-05-28 | 2016-11-01 | International Business Machines Corporation | Hybrid predictive model for enhancing prosodic expressiveness |
US9679258B2 (en) | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
US9858919B2 (en) | 2013-11-27 | 2018-01-02 | International Business Machines Corporation | Speaker adaptation of neural network acoustic models using I-vectors |
-
2015
- 2015-09-08 US US14/848,296 patent/US10275719B2/en active Active
- 2015-12-11 WO PCT/US2015/065327 patent/WO2016122787A1/en active Application Filing
- 2015-12-11 CN CN201580074740.2A patent/CN107209873B/zh active Active
- 2015-12-11 EP EP15817719.6A patent/EP3251058A1/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090150126A1 (en) * | 2007-12-10 | 2009-06-11 | Yahoo! Inc. | System and method for sparse gaussian process regression using predictive measures |
WO2014087652A1 (ja) * | 2012-12-06 | 2014-06-12 | 日本電気株式会社 | 画像処理装置及び画像処理方法 |
US20140358831A1 (en) * | 2013-05-30 | 2014-12-04 | President And Fellows Of Harvard College | Systems and methods for bayesian optimization using non-linear mapping of input |
CN103425743A (zh) * | 2013-07-17 | 2013-12-04 | 上海金自天正信息技术有限公司 | 基于贝叶斯神经网络算法的蒸汽管网预测系统 |
CN103886344A (zh) * | 2014-04-14 | 2014-06-25 | 西安科技大学 | 一种图像型火灾火焰识别方法 |
CN104156791A (zh) * | 2014-08-29 | 2014-11-19 | 哈尔滨工业大学 | 基于ls-svm的概率集成学习锂离子电池剩余寿命预测方法 |
Non-Patent Citations (5)
Title |
---|
J. BERGSTRA ET AL: "Making a Science of Model Search: Hyperparameter Optimization in Hundreds of Dimensions for Vision Architectures", 《PROCEEDINGS OF THE 30 TH INTERNATIONAL CONFERENCE ON MACHINE LEARNING》 * |
KATHARINA EGGENSPERGER ET AL: "Towards an Empirical Foundation for Assessing Bayesian Optimization of Hyperparameters", 《BAYESOPT WORKSHOP (NIPS) (2013)》 * |
KEVIN SWERSKY ET AL: "Raiders of the Lost Architecture:Kernels for Bayesian Optimization in Conditional Parameter Spaces", 《ARXIV:1409.4011V1 [STAT.ML]》 * |
VARUN CHANDOLA ET AL: "Scalable Hyper-parameter Estimation for Gaussian Process Based Time Series Analysis", 《KDD-LDMTA’10》 * |
ZHEN-ZHEN LI ET AL: "Identifying Best Hyperparameters for Deep Architectures Using Random Forests", 《9TH INTERNATIONAL CONFERENCE, LION 9》 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111149117B (zh) * | 2017-09-28 | 2023-09-19 | 甲骨文国际公司 | 机器学习和深度学习模型的基于梯度的自动调整 |
CN111149117A (zh) * | 2017-09-28 | 2020-05-12 | 甲骨文国际公司 | 机器学习和深度学习模型的基于梯度的自动调整 |
CN111357019B (zh) * | 2017-11-30 | 2023-12-29 | 国际商业机器公司 | 通过对权重矩阵实施空间局部性并实现频率压缩来压缩(多个)深度网络的全连接/递归层 |
US11977974B2 (en) | 2017-11-30 | 2024-05-07 | International Business Machines Corporation | Compression of fully connected / recurrent layers of deep network(s) through enforcing spatial locality to weight matrices and effecting frequency compression |
CN111357019A (zh) * | 2017-11-30 | 2020-06-30 | 国际商业机器公司 | 通过对权重矩阵实施空间局部性并实现频率压缩来压缩(多个)深度网络的全连接/递归层 |
CN109242105B (zh) * | 2018-08-17 | 2024-03-15 | 第四范式(北京)技术有限公司 | 代码优化方法、装置、设备及介质 |
CN109242105A (zh) * | 2018-08-17 | 2019-01-18 | 第四范式(北京)技术有限公司 | 机器学习模型中超参数的调优方法、装置、设备及介质 |
CN111406263A (zh) * | 2018-11-28 | 2020-07-10 | 深圳市大疆创新科技有限公司 | 神经网络架构搜索的方法与装置 |
CN109657805B (zh) * | 2018-12-07 | 2021-04-23 | 泰康保险集团股份有限公司 | 超参数确定方法、装置、电子设备及计算机可读介质 |
CN109657805A (zh) * | 2018-12-07 | 2019-04-19 | 泰康保险集团股份有限公司 | 超参数确定方法、装置、电子设备及计算机可读介质 |
CN109816116B (zh) * | 2019-01-17 | 2021-01-29 | 腾讯科技(深圳)有限公司 | 机器学习模型中超参数的优化方法及装置 |
CN109816116A (zh) * | 2019-01-17 | 2019-05-28 | 腾讯科技(深圳)有限公司 | 机器学习模型中超参数的优化方法及装置 |
CN109840501A (zh) * | 2019-01-31 | 2019-06-04 | 深圳市商汤科技有限公司 | 一种图像处理方法及装置、电子设备、存储介质 |
CN109840501B (zh) * | 2019-01-31 | 2021-06-01 | 深圳市商汤科技有限公司 | 一种图像处理方法及装置、电子设备、存储介质 |
CN110109428A (zh) * | 2019-04-19 | 2019-08-09 | 北京戴纳实验科技有限公司 | 一种用于实验室设备的险情监测系统 |
CN110109428B (zh) * | 2019-04-19 | 2020-09-18 | 北京戴纳实验科技有限公司 | 一种用于实验室设备的险情监测系统 |
CN110110861A (zh) * | 2019-05-09 | 2019-08-09 | 北京市商汤科技开发有限公司 | 确定模型超参数及模型训练的方法和装置、存储介质 |
CN110110861B (zh) * | 2019-05-09 | 2021-11-26 | 北京市商汤科技开发有限公司 | 确定模型超参数及模型训练的方法和装置、存储介质 |
CN111508000B (zh) * | 2020-04-14 | 2024-02-09 | 北京交通大学 | 基于参数空间噪声网络的深度强化学习目标跟踪方法 |
CN111508000A (zh) * | 2020-04-14 | 2020-08-07 | 北京交通大学 | 基于参数空间噪声网络的深度强化学习目标跟踪方法 |
WO2021248443A1 (en) * | 2020-06-12 | 2021-12-16 | Qualcomm Incorporated | Generate source code to build secure machine learning engine for edge devices and existing toolchains |
Also Published As
Publication number | Publication date |
---|---|
US10275719B2 (en) | 2019-04-30 |
EP3251058A1 (en) | 2017-12-06 |
CN107209873B (zh) | 2021-06-25 |
WO2016122787A1 (en) | 2016-08-04 |
US20160224903A1 (en) | 2016-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107209873A (zh) | 用于深度卷积网络的超参数选择 | |
CN107430703A (zh) | 对细调特征的顺序图像采样和存储 | |
CN108027899A (zh) | 用于提高经训练的机器学习模型的性能的方法 | |
CN107533754A (zh) | 在深度卷积网络中降低图像分辨率 | |
CN107533669A (zh) | 滤波器特异性作为用于神经网络的训练准则 | |
CN107851213A (zh) | 神经网络中的转移学习 | |
CN107924491A (zh) | 未知类别的检测和用于未知类别的分类器的初始化 | |
CN107851191A (zh) | 用于图像中的对象检测的基于上下文的先验 | |
CN107004157A (zh) | 模型压缩和微调 | |
CN107924486A (zh) | 用于分类的强制稀疏 | |
KR102001798B1 (ko) | 비디오 이해를 위한 모션-기반 어텐션에 의한 순환 네트워크들 | |
CN107851198A (zh) | 媒体分类 | |
CN107430705A (zh) | 用于重新训练分类器的样本选择 | |
CN108431826A (zh) | 自动检测视频图像中的对象 | |
Ong et al. | Memetic computation—past, present & future [research frontier] | |
CN107580712A (zh) | 定点神经网络的降低的计算复杂度 | |
CN108027834A (zh) | 用于通过文本的视频搜索的语义多感官嵌入 | |
CN107636697A (zh) | 基于浮点神经网络量化的定点神经网络 | |
CN107533665A (zh) | 经由偏置项在深度神经网络中纳入自顶向下信息 | |
US10496885B2 (en) | Unified embedding with metric learning for zero-exemplar event detection | |
CN107646116A (zh) | 用于定点神经网络的位宽选择 | |
CN108496127A (zh) | 集中于对象的有效三维重构 | |
US20180260695A1 (en) | Neural network compression via weak supervision | |
WO2018089158A1 (en) | Natural language object tracking | |
CN106796580A (zh) | 用于异步脉冲调制采样信号的事件驱动的空间‑时间短时傅立叶变换处理 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |