CN109923558A - 混合专家神经网络 - Google Patents
混合专家神经网络 Download PDFInfo
- Publication number
- CN109923558A CN109923558A CN201780068472.2A CN201780068472A CN109923558A CN 109923558 A CN109923558 A CN 109923558A CN 201780068472 A CN201780068472 A CN 201780068472A CN 109923558 A CN109923558 A CN 109923558A
- Authority
- CN
- China
- Prior art keywords
- expert
- neural network
- output
- layer
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 162
- 239000000203 mixture Substances 0.000 title claims abstract description 9
- 210000005036 nerve Anatomy 0.000 claims abstract description 22
- 239000013598 vector Substances 0.000 claims description 48
- 238000000034 method Methods 0.000 claims description 19
- 230000001537 neural effect Effects 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 6
- 210000004218 nerve net Anatomy 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 20
- 238000012549 training Methods 0.000 description 19
- 238000004590 computer program Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 239000012634 fragment Substances 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241000009334 Singa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Debugging And Monitoring (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
一种包括神经网络的系统,神经网络包括第一神经网络层和第二神经网络层之间的混合专家(MoE)子网。MoE子网包括多个专家神经网络。每个专家神经网络被配置为处理由第一神经网络层生成的第一层输出,以生成相应的专家输出。MoE子网还包括选通子系统,选通子系统基于第一层输出选择专家神经网络中的一个或多个并为每个所选择的专家神经网络确定相应权重,将第一层输出作为输入提供给所选择的专家神经网络中的每一个,根据所选择的专家神经网络的权重来组合由所选择的专家神经网络生成的专家输出以生成MoE输出,以及将MoE输出作为输入提供给第二神经网络层。
Description
相关申请的交叉引用
本申请要求于2016年11月4日提交的美国临时申请序列号62/418,135和于2016年12月9日提交的美国临时申请序列号62/432,497的优先权。在先申请的公开内容被认为是本申请公开内容的一部分,并通过引用结合于此。
背景技术
本说明书涉及通过神经网络层处理输入以生成输出。
神经网络是采用一层或多层非线性单元来预测接收到的输入的输出的机器学习模型。一些神经网络除了输出层之外还包括一个或多个隐藏层。每个隐藏层的输出被用作网络中另一层(即另一隐藏层或输出层)的输入。网络的每一层根据相应参数集的当前值从接收到的输入生成输出。
发明内容
一般而言,本说明书中描述的主题的一个创新方面可以体现在在包括神经网络的一个或多个位置处的一个或多个计算机上被实施为计算机程序的系统中。神经网络包括神经网络中的第一神经网络层和第二神经网络层之间的混合专家(Mixture of Experts,MoE)子网。MoE子网包括多个专家神经网络,其中每个专家神经网络被配置为根据专家神经网络的相应专家参数集来处理由第一神经网络层生成的第一层输出,以生成相应的专家输出。MoE子网还包括选通子系统,选通子系统被配置为:基于第一层输出来选择专家神经网络中的一个或多个并为每个所选择的专家神经网络确定相应权重,将第一层输出作为输入提供给所选择的专家神经网络中的每一个,根据所选择的专家神经网络的权重来组合由所选择的专家神经网络生成的专家输出以生成MoE输出,以及将MoE输出作为输入提供给第二神经网络层。
前述内容和其他实施例可以各自可选地单独或以组合的形式包括以下特征中的一个或多个。专家神经网络可以具有相同或相似的架构,但是具有不同的参数值。组合由所选择的专家神经网络生成的专家输出可以包括:按所选择的专家神经网络的权重对由所选择的专家神经网络中的每一个生成的专家输出进行加权,以生成加权专家输出,并将加权专家输出求和以生成MoE输出。选通子系统可以包括选通子网,其中选通子网被配置为:根据选通参数集来处理第一层输出以生成包括多个专家神经网络中的每一个的相应权重的权重向量,以及基于权重向量中的权重来选择专家神经网络中的一个或多个。权重向量可以是仅针对专家神经网络中的少数专家神经网络包括非零权重的稀疏向量。选择一个或多个专家神经网络可以包括仅选择在权重向量中具有非零权重的专家神经网络。
根据选通参数集来处理第一层输出以生成包括多个专家神经网络中的每一个的相应权重的权重向量包括:生成初始选通输出,其中生成初始选通输出包括将选通参数集应用于第一层输出;将稀疏化函数应用于初始选通输出,以生成稀疏化的初始选通输出;以及将softmax函数应用于稀疏化的初始选通输出以生成权重向量。
生成初始选通输出可以包括:将选通参数集应用于第一层输出,以生成修改后的第一层输出;以及将可调谐高斯噪声添加到修改后的第一层输出,以生成初始选通输出。将可调谐高斯噪声添加到修改后的第一层输出以生成初始选通输出可以包括:将可训练噪声参数集应用于第一层输出,以生成初始噪声输出;将初始噪声输出与从正态分布采样的噪声值的向量按元素相乘,以生成最终噪声输出;以及将最终噪声输出添加到修改后的第一层输出。稀疏化函数将初始选通输出中除了k个最高值以外的所有值设置为被softmax函数映射为零的值。选通子系统包括父选通子网和多个子选通子网,其中子选通子网中的每一个管理多个专家神经网络的与每个其他子选通子网不相交的子集。
本说明书中描述的主题的另一创新方面可以体现在包括以下步骤的方法中:接收网络输入;以及使用上述系统来处理网络输入,以生成网络输入的网络输出。
本说明书中描述的主题的其他创新方面可以体现在用指令编码的一个或多个非暂时性存储介质中,这些指令在由一个或多个计算机实施时使得一个或多个计算机实施上述系统和方法。
本说明书中描述的主题可以在特定实施例中实施,以便实现以下优点中的一个或多个。虽然一些MoE实施方式涉及大量的训练时间和计算成本,但是本文描述的各种实施例涉及在不极大地增加计算资源需求的情况下提高计算能力的MOE实施方式。特别地,本说明书中描述的各种实施例涉及MoE实施方式,其中包括MoE子网的神经网络的计算能力(参数数量)可以通过利用大量专家神经网络的可用性来增加。在本文描述的一些MoE实施方式中,在由神经网络处理任何给定网络输入期间,仅选择少量专家神经网络,并且因此使用神经网络处理推理需要的处理时间和计算资源可以维持在合理的水平。也就是说,在维持合理的处理时间的同时,可以极大地增加计算能力,而不需要极大地增加处理推理所需的计算资源的数量。结果,在合理的处理时间和计算成本下,神经网络可以实现比现有方法显著更好的结果(例如,更好的预测精度),特别是对于其中模型能力对于吸收训练数据集中大量可用知识至关重要的任务。因此,本说明书中描述的主题可以在特定实施例中实施,以实现各种技术效益。不仅如此,根据各种实施例的神经网络系统可以应用于各种技术目的,包括但不限于估计图像包含属于某个类别的对象的图像的可能性。
本说明书主题的一个或多个实施例的细节在附图和以下描述中阐述。从说明书、附图和权利要求书中,主题的其他特征、方面和优点将变得显而易见。
附图说明
图1是神经网络系统的示例的框图。
图2是用于针对输入生成混合专家(MoE)输出的示例过程的流程图。
图3是用于确定权重向量并用于基于该权重向量选择专家神经网络中的一个或多个的示例过程的流程图。
不同附图中相同的参考数字和标记指示相同的元件。
具体实施方式
图1示出了神经网络系统100的示例。神经网络系统100是在一个或多个位置处的一个或多个计算机上被实施为计算机程序的系统的示例,其中可以实施下面描述的系统、组件和技术。一般而言,系统100包括神经网络102,神经网络102可以被配置为接收任何种类的数字数据输入,并基于该输入生成任何种类的分数、类别或回归输出。
例如,如果到神经网络102的输入是已经从图像中提取的图像或特征,则由神经网络102针对给定图像生成的输出可以是对象类别集中的每一个类别的分数,其中每个分数表代表图像包含属于该类别的对象的图像的估计可能性。
作为另一示例,如果到神经网络102的输入是互联网资源(例如,网页),文档,或文档的部分,或从互联网资源、文档或文档的部分中提取的特征,则神经网络针对给定互联网资源、文档或文档的部分生成的输出可以是主题集中的每一个主题的分数,其中每个分数代表互联网资源、文档或文档的部分是关于主题的估计可能性。
作为另一示例,如果到神经网络102的输入是特定内容元素的印象上下文的特征,则由神经网络102生成的输出可以是代表特定内容元素将被点击的估计可能性的分数。
作为另一示例,如果到神经网络102的输入是用户的个性化推荐的特征,例如,表征该推荐的上下文的特征,例如表征用户采取的先前的动作的特征,则由神经网络102生成的输出可以是内容元素集中的每一个内容元素的分数,其中每个分数代表用户对被推荐内容元素有利地进行响应的估计可能性。
作为另一示例,如果到神经网络102的输入是一种语言的文本序列,则由神经网络102生成的输出可以是另一语言的文本片段集中的每一个文本片段的分数,其中每个分数代表另一语言的文本片段是输入文本到另一语言的的正确翻译的估计可能性。
作为另一示例,如果到神经网络102的输入是代表口头话语(spoken utterance)的序列,则由神经网络102生成的输出可以是文本片段集中的每一个文本片段的分数,每个分数代表该文本片段是话语的正确记录(transcript)的估计可能性。
神经网络102包括神经网络层的堆叠。神经网络层的堆叠可以是任何种类的神经网络层,例如,长短期记忆(Long Short-Term Memory,LSTM)神经网络层或者其他递归神经网络层、卷积神经网络层或全连接神经网络层。在一些实施方式中,神经网络层的堆叠可以包括两个或更多个不同种类的神经网络层的混合。为了增加神经网络102的计算能力,神经网络102在堆叠的神经网络层之间包括一个或多个混合专家(MoE)子网。
特别地,如图1所示,神经网络102包括布置在神经网络102中的第一神经网络层104和第二神经网络层108之间的MoE子网130。第一神经网络层104和第二神经网络层108可以是任何种类的神经网络层,例如,LSTM神经网络层或其他递归神经网络层、卷积神经网络层或全连接神经网络层。在一些实施方式中,第一神经网络层104和第二神经网络层108中的一个或两者可以是其他MoE子网。
MoE子网130包括多个专家神经网络,例如,专家神经网络114-122。MoE子网130中的每个专家神经网络可以被配置为根据专家神经网络的相应专家参数集来处理由第一神经网络层104生成的第一层输出124,以生成相应的专家输出。
虽然图1示出了MoE子网130仅包括5个专家神经网络,但是一般而言,MoE子网可以包括大量专家神经网络,例如,数千个专家神经网络。每个专家神经网络可以是具有自己参数的前馈神经网络。专家神经网络被配置为接收相同大小的输入并产生相同大小的输出。在一些实施方式中,专家神经网络是具有相同架构但具有不同参数的前馈神经网络。每个专家神经网络可以具有非常大量的参数。例如,每个专家神经网络可以具有100万到200万个参数,使得MoE子网的参数的总数为数十亿个参数。
虽然MoE子网包括大量的专家神经网络,但是在由神经网络102处理任何给定网络输入期间,仅选择少量的专家神经网络,例如,仅选择少量的专家神经网络来处理第一层输出124。神经网络102包括选通子系统110,选通子系统110被配置为基于第一层输出124来选择专家神经网络中的一个或多个,并为每个所选择的专家神经网络确定相应的权重。选通子系统110然后将第一层输出作为输入提供给所选择的专家神经网络中的每一个。选通子系统110根据所选择的专家神经网络的权重来组合由所选择的专家神经网络生成的专家输出,以生成MoE输出132。选通子系统110然后将MoE输出132作为输入提供给第二神经网络层108。
特别地,选通子系统110包括选通子网112,选通子网112被配置为根据选通子网的选通参数集来处理第一层输出以生成包括多个专家神经网络中的每一个的相应权重的权重向量,并且基于权重向量中的权重来选择专家神经网络中的一个或多个。
例如,假定MoE子网130包括n个专家神经网络E1,...,En的集合,则表示为G的选通子网112被配置为处理给定输入x(例如,第一层输出124)以生成权重向量G(x)。权重向量G(x)包括该n个专家神经网络的集合中的每个专家神经网络的相应权重。选通子网112被配置为基于权重向量G(x)中的权重从该n个专家神经网络的集合中选择一个或多个专家神经网络。特别地,权重向量G(x)是仅针对该集合中的专家神经网络中的少数专家神经网络包括非零权重的稀疏n维向量。非零权重的数量是整数,并且与MoE子网130中的专家神经网络的数量相比非常小。例如,MoE子网130可以具有成百上千个专家神经网络,并且权重向量G(x)可以具有一个、两个或五个非零权重。非零权重的数量可以基于诸如计算成本、模型质量(例如预测质量)以及MoE子网130是否处于测试或训练条件下的标准来确定。一般而言,较小数量的非零权重需要较少的计算,而较大数量的非零权重导致较高的模型质量。一般而言,非零权重的数量可以在每个网络输入之前修改,或者可以针对所有网络输入保持固定。在训练期间,对于训练期间处理的至少一些网络输入,非零权重的数量被设置为大于1的值。选通子网112仅选择在权重向量G(x)中具有非零权重的专家神经网络。例如,图1中的专家神经网络116和120具有非零权重,并且因此被选择用于进一步处理。
下面参照图3更详细地描述用于生成具有预定数量的非零权重的权重向量的过程。
在已经生成权重向量并且已经选择了一个或多个专家神经网络(例如,专家神经网络116和120)之后,选通子系统110通过按所选择的专家神经网络的权重对由所选择的专家神经网络中的每一个生成的专家输出(例如,由专家神经网络116生成的专家输出126和由专家神经网络120生成的专家输出128)进行加权,以生成加权专家输出,并将加权专家输出(例如,加权专家输出134和136)求和以生成MoE输出132。
特别地,MoE输出132可以表达如下:
其中y是基于权重向量G(x)的输出的稀疏性而计算的MoE输出。这意味着在任何G(x)i=0的情况下,专家神经网络集中的第i个专家神经网络Ei不需要计算相应的专家输出Ei(x)。
在生成MoE输出132之后,选通子系统110将MoE输出132作为输入提供给第二神经网络层108用于进一步处理。
在一些实施方式中,第二神经网络层108可以是另一MoE子网,而不是传统的神经网络层。
在一些实施方式中,如果专家神经网络的数量非常大(例如,超过一千个专家神经网络),则可以通过使用多级分层MoE子网来降低选通子网112的分支因子(branchingfactor)。例如,在两级分层MoE子网中,选通子系统110可以包括父选通子网和多个子选通子网,其中子选通子网中的每一个本身是具有其自己的选通子网的次级MoE子网。子选通子网中的每一个管理多个专家神经网络的与每个其他子选通子网不相交的子集。父选通子网选择子选通子网的稀疏加权组合,并基于该稀疏加权组合生成MoE输出。
条件计算的使用(其中MoE子网130的部分在每个输入示例的基础上是激活的)可以显著增加神经网络102的计算能力,而不会成比例地增加计算。这是因为MoE子网130可以具有数千个专家神经网络,但是对于每个输入只需要估计非常少的专家神经网络。结果,神经网络102可以以较低的计算成本实现比现有方法明显更好的结果,特别是对于诸如语言建模和机器翻译的任务,其中模型能力对于吸收训练语料库(training corpora)中大量可用知识至关重要。作为示例,神经网络102可以在具有包括10亿至1000亿单词的数据集的语言建模任务上被训练。在另一示例中,神经网络102可以在具有数千万个句子对(sentencepair)的数据集的单一语言对(language pair)机器翻译任务上被训练。在又一示例中,神经网络102可以在具有十二种语言对的非常大的组合数据集的多语言机器翻译任务上被训练。在训练期间,神经网络102的各种组件可以通过反向传播来联合训练。
图2是用于使用MoE子网(例如图1的MoE子网130)针对输入生成混合专家(MoE)输出的示例过程200的流程图。为了方便起见,该过程将被描述为由位于一个或多个位置的一个或多个计算机的系统执行。例如,适当编程的神经网络系统(例如,图1的神经网络系统100)可以执行该过程。
系统接收由MoE子网之前的神经网络层生成的第一层输出作为输入(步骤202)。MoE子网包括多个专家神经网络和含有选通子网的选通子系统。
系统基于第一层输出来选择多个专家神经网络中的一个或多个,并为每个所选择的专家神经网络确定相应权重(步骤204)。
具体地,系统根据选通子网的选通参数集来处理第一层输出以生成包括多个专家神经网络中的每一个的相应权重的权重向量。然后,系统基于权重向量中的权重来选择多个专家神经网络中的一个或多个。具体而言,权重向量是仅针对专家神经网络中的少数专家神经网络包括非零权重的稀疏向量,并且系统仅选择在权重向量中具有非零权重的专家神经网络。下面参考图3更详细地描述生成权重向量。
系统将第一层输出作为输入提供给所选择的专家神经网络中的每一个(步骤206)。所选择的专家神经网络中的每一个被配置为根据所选择的专家神经网络的参数的相应当前值来处理第一层输出,以生成相应的专家输出。
然后,系统根据所选择的专家神经网络的权重组合由所选择的专家神经网络生成的专家输出,以生成MoE输出(步骤208)。
具体地,系统按所选择的专家神经网络的权重对由所选择的专家神经网络中的每一个生成的专家输出进行加权,以生成加权专家输出。然后,系统将加权专家输出求和以生成MoE输出。
然后,系统将MoE输出作为输入提供给MoE子网之后的第二神经网络层,用于进一步处理。
图3是用于确定权重向量并用于基于权重向量来选择被包括在MOE子网(例如,图1的MOE子网130)中的专家神经网络中的一个或多个的示例过程300的流程图。为了方便起见,该过程将被描述为由位于一个或多个位置的一个或多个计算机的系统执行。例如,适当编程的神经网络系统(例如,图1的神经网络系统100)可以执行该过程。
系统将MoE子网的选通子网的选通参数集应用于第一层输出,以生成修改后的第一层输出(步骤302)。
系统向修改后的第一层输出添加噪声,以生成初始选通输出(步骤304)。噪声有助于负载平衡,即,鼓励专家神经网络在训练期间在训练数据集中接收大致相等数量的训练示例,或者在测试期间在输入数据中接收大致相等数量的输入示例。
例如,噪声可以是可调谐高斯噪声。为了将可调谐高斯噪声添加到修改后的第一层输出,系统首先将可训练噪声参数集应用到第一层输出,以生成初始噪声输出。系统然后将初始噪声输出与从正态分布中采样的噪声值的向量按元素相乘,以生成最终噪声输出。在一些实施方式中,系统可以在将初始噪声输出与从正态分布中采样的噪声值的向量按元素相乘以生成最终噪声输出之前,在初始噪声输出上应用softplus函数。然后,系统将最终噪声输出添加到修改后的第一层输出,以生成初始选通输出。
例如,第一层输出x的初始选通输出可以表示为向量H(x),其具有等于MoE子网中专家神经网络的数量的维度。与第i个专家神经网络相对应的H(x)第i个元素可以计算如下:
H(x)i=(x·Wg)i+StandardNormal()·Softplus((x·Wnoise)i);
其中Wg是被应用于第一层输出x以生成修改后的第一层输出x Wg的选通参数集;Wnoise是可训练噪声参数集;并且StandardNormal()是用于采样噪声值的向量的正态分布。
系统将稀疏化函数应用于初始选通输出,以生成稀疏化的初始选通输出(步骤306)。稀疏化函数将初始选通输出中除了k个最高值以外的所有值设置为被softmax函数映射为零的值,其中k是整数。k可以基于诸如计算成本、模型质量(例如,预测质量)以及MoE子网是否处于测试或训练条件下的标准来确定。一般而言,较小的k值需要较少的计算,而较大的k值会导致较高的模型质量。一般而言,非零权重的数量可以在每个网络输入之前修改,或者可以针对所有网络输入保持固定。在训练期间,对于训练期间处理的至少一些网络输入,非零权重的数量被设置为大于1的值。稀疏化函数的示例具有以下形式:
稀疏化的初始选通输出可以被表达为KeepTopK(H(x),k)。
系统将softmax函数应用于稀疏化的初始选通输出,以生成权重向量(步骤308)。权重向量是仅针对专家神经网络中的少数专家神经网络包括非零权重的稀疏向量。例如,权重向量G(x)可以如下计算:
G(x)=Softmax(KeepTopK(H(x),k))。
系统基于权重向量中的权重来选择多个专家神经网络中的一个或多个(步骤310)。具体而言,系统仅选择在权重向量中具有非零权重的专家神经网络。
在神经网络102的训练期间,过程200和300可以被用作“针对训练输入生成网络输出”的一部分。目标函数的梯度可以反向传播,以调整神经网络102的各种组件的参数值,从而相对于训练输入的已知输出改善网络输出的质量。
本说明书结合系统和计算机程序组件而使用术语“配置”。对于一个或多个计算机的系统来说,被配置为执行特定的操作或动作意味着系统已经在其上安装了软件、固件、硬件或它们的组合,这些软件、固件、硬件或它们的组合在操作中使得系统执行操作或动作。对于一个或多个计算机程序来说,被配置为执行特定操作或动作意味着该一个或多个程序包括指令,当由数据处理装置执行时,这些指令使得该装置执行操作或动作。
本说明书中描述的主题和功能性操作的实施例可以在数字电子电路系统、有形体现的计算机软件或固件、计算机硬件(包括本说明书中公开的结构及其结构等同物)中实施,或者在它们中的一个或多个的组合中实施。本说明书中描述的主题的实施例可以被实施为一个或多个计算机程序,即被编码在有形非暂时性存储介质上、用于由数据处理装置执行或控制数据处理装置的操作的计算机程序指令的一个或多个模块。计算机存储介质可以是机器可读存储设备、机器可读存储基底、随机或串行访问存储器设备、或者它们中的一个或多个的组合。可替换地或附加地,程序指令可以被编码在人工生成的传播信号上,例如机器生成的电信号、光信号或电磁信号,该信号被生成以编码信息以用于传输到合适的接收器装置以供数据处理装置执行。
术语“数据处理装置”指的是数据处理硬件,并且涵括用于处理数据的各种装置、设备和机器,举例来说包括可编程处理器、计算机或多个处理器或计算机。该装置还可以是或者进一步包括专用逻辑电路,例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)。除了硬件之外,该装置可以可选地包括为计算机程序创建执行环境的代码,例如构成处理器固件、协议栈、数据库管理系统、操作系统或它们中的一个或多个的组合的代码。
计算机程序(也可以被称为或描述为程序、软件、软件应用、应用、模块、软件模块、脚本或代码)可以用任何形式的编程语言编写,包括编译或解释语言,或者声明性或程序性语言;并且其可以以任何形式部署,包括作为独立程序,或作为模块、组件、子例程或适合在计算环境中使用的其他单元。程序可以但不必对应于文件系统中的文件。程序能够存储在保存其它程序或者数据的文件的部分(例如,存储在标记语言文档中的一个或多个脚本)中、存储在专用于所讨论的程序的单一文件中、或者存储在多个协调的文件(例如,存储一个或多个模块、子程序、或者代码的部分的文件)中。可以部署计算机程序以在一个计算机上或者在位于一个站点处或跨多个站点分布并通过数据通信网络互连的多个计算机上执行。
本说明书中描述的过程和逻辑流程可以由运行一个或多个计算机程序的一个或多个可编程计算机执行,以通过对输入数据进行操作并生成输出来执行功能。过程和逻辑流程也可以由专用逻辑电路系统,例如,FPGA或ASIC,或者由专用逻辑电路系统和一个或多个编程计算机的组合来执行。
适于执行计算机程序的计算机可以基于通用微处理器或专用微处理器或两者,或者任何其他类型的中央处理单元。一般而言,中央处理单元将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行或运行指令的中央处理单元以及用于存储指令和数据的一个或多个存储器设备。中央处理单元和存储器可以由专用逻辑电路来补充或并入专用逻辑电路系统。一般而言,计算机还将包括用于存储数据的一个或多个大容量存储设备(例如磁盘、磁光盘或光盘)或者可操作地被耦合到这样的一个或多个大容量存储设备,以从其接收数据或向其发送数据或两者均可。然而,计算机不需要这样的设备。此外,计算机可以被嵌入在另一设备中,例如,移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏机、全球定位系统(GPS)接收器、或便携式存储设备(例如,通用串行总线(USB)闪速驱动器),仅列举几个。
适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,举例来说,包括半导体存储器设备(例如,EPROM,EEPROM和闪存设备)、磁盘(例如,内部硬盘或可移动盘)、磁光盘、以及CD-ROM和DVD-ROM盘。
为了提供与用户的交互,本说明书中描述的主题的实施例可以在具有用于向用户显示信息的显示设备(例如CRT(阴极射线管)或LCD(液晶显示器)监视器)以及用户可通过其向计算机提供输入的键盘和指示设备(例如,鼠标或轨迹球)的计算机上实施。其他类型的设备也可被用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的感觉反馈,例如视觉反馈、听觉反馈或触觉反馈;并且可以以包括声音、语音或触觉输入的任何形式接收来自用户的输入。此外,计算机可以通过向用户使用的设备传送文档和从该设备接收文档来与用户交互,例如,通过响应于从网页浏览器接收的请求向用户的设备上的网页浏览器传送网页。并且,计算机可以通过向个人设备(例如,运行消息传送应用的智能手机)传送文本消息或其他形式的消息以及从用户接收响应消息作为交换来与用户交互。
用于实施机器学习模型的数据处理装置还可以包括例如专用硬件加速器单元,专用硬件加速器单元用于处理机器学习训练或生产的公共且计算密集的部分,即推理、工作负载。
机器学习模型可以使用机器学习框架来实施和部署,例如,TensorFlow框架、微软认知工具包框架、Apache Singa框架或Apache MXNet框架。
本说明书中描述的主题的实施例可以在计算系统中实施,计算系统包括后端组件(例如作为数据服务器的后端组件),或者包括中间件组件(例如应用服务器),或者包括前端组件(例如具有用户可以通过其与本说明书中描述的主题的实施方式交互的图形用户界面、网页浏览器或应用的客户端计算机),或者包括一个或多个这样的后端、中间件或前端组件的任何组合。系统的组件可以通过任何形式或介质的数字数据通信相互连接,例如通信网络。通信网络的示例包括局域网(LAN)和广域网(WAN),例如互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般彼此远离,并且通常通过通信网络交互。客户端和服务器的关系由于在各个计算机上运行并且彼此具有客户端-服务器关系的计算机程序而产生。在一些实施例中,服务器将数据(例如,HTML页面)发送到用户设备,例如,用于向与充当客户端的设备交互的用户显示数据和从该用户接收用户输入的目的。在用户设备处生成的数据(例如用户交互的结果)可以在服务器处从设备接收。
虽然本说明书包含许多特定的实施方式细节,但这些不应被解释为对任何发明的范围或可能要求保护的范围的限制,而是对可能特定于特定发明的特定实施例的特征的描述。本说明书中在分离的实施例的上下文中描述的某些特征也可以在单一实施例中以组合的方式实施。相反,在单一实施例的上下文中描述的各种特征也可以分离地或以任何合适的子组合在多个实施例中实施。此外,虽然以上可以将特征描述为以某些组合起作用并且甚至这些特征最初被要求这样保护,但是在某些情况下来自要求保护的组合的一个或多个特征可以从该组合中删去,并且要求保护的组合可以指向子组合或子组合的变体。
类似地,虽然在附图中描述了操作,并且在权利要求中以特定顺序记载了操作,但是这不应该被理解为要求这些操作以所示的特定次序或按顺序的次序执行,或者要求执行所有示出的操作,以实现期望的结果。在某些情况下,多任务处理和并行处理可以是有利的。此外,上述实施例中的各种系统模块和组件的分离不应被理解为在所有实施例中都需要这种分离,并且应当理解的是,描述的程序组件和系统一般可以在单一软件产品中集成在一起或者被封装到多个软件产品中。
已经描述了主题的特定实施例。其他实施例在以下权利要求的范围内。例如,权利要求中记载的动作可以以不同的次序执行,并且仍然实现期望的结果。作为一个示例,附图中描绘的过程不一定要求所示的特定次序或顺序的次序来实现期望的结果。在某些情况下,多任务处理和并行处理可能是有利的。
Claims (14)
1.一种系统,包括:
由一个或多个计算机实施的主神经网络,所述主神经网络包括所述主神经网络中的第一神经网络层和第二神经网络层之间的混合专家(MOE)子网,其中所述MOE子网包括:
多个专家神经网络,其中每个专家神经网络被配置为根据所述专家神经网络的相应的专家参数集来处理由所述第一神经网络层生成的第一层输出,以生成相应的专家输出,以及
选通子系统,被配置为:
基于所述第一层输出来选择所述专家神经网络中的一个或多个专家神经网络,并为每个所选择的专家神经网络确定相应权重,
将所述第一层输出作为输入提供给所选择的专家神经网络中的每一个专家神经网络;
根据所选择的专家神经网络的权重来组合由所选择的专家神经网络生成的专家输出,以生成MoE输出,以及
将所述MoE输出作为输入提供给所述第二神经网络层。
2.根据权利要求1所述的系统,其中,所述专家神经网络具有相同或相似的架构,但是具有不同的参数值。
3.根据权利要求1或2中任一项所述的系统,其中,组合由所选择的专家神经网络生成的专家输出包括:
按所选择的专家神经网络的权重对由所选择的专家神经网络中的每一个专家神经网络生成的专家输出进行加权,以生成加权专家输出,以及
将所述加权专家输出求和以生成所述MoE输出。
4.根据权利要求1-3中任一项所述的系统,
其中所述选通子系统包括选通子网,并且其中所述选通子网被配置为:
根据选通参数集来处理所述第一层输出以生成包括所述多个专家神经网络中的每一个专家神经网络的相应权重的权重向量,以及
基于所述权重向量中的权重来选择所述专家神经网络中的一个或多个专家神经网络。
5.根据权利要求4所述的系统,其中所述权重向量是仅针对所述专家神经网络中的少数专家神经网络包括非零权重的稀疏向量。
6.根据权利要求4或5中任一项所述的系统,其中,选择一个或多个所述专家神经网络包括:
仅选择在所述权重向量中具有非零权重的专家神经网络。
7.根据权利要求4-6中任一项所述的系统,其中,根据选通参数集来处理所述第一层输出以生成包括所述多个专家神经网络中的每一个专家神经网络的相应权重的权重向量包括:
生成初始选通输出,其中生成所述初始选通输出包括将所述选通参数集应用于所述第一层输出;
将稀疏化函数应用于所述初始选通输出,以生成稀疏化的初始选通输出;以及
将softmax函数应用于所述稀疏化的初始选通输出以生成所述权重向量。
8.根据权利要求7所述的系统,其中,生成所述初始选通输出包括:
将所述选通参数集应用于所述第一层输出,以生成修改后的第一层输出;以及
将可调谐高斯噪声添加到所述修改后的第一层输出,以生成所述初始选通输出。
9.根据权利要求8所述的系统,其中,将可调谐高斯噪声添加到所述修改后的第一层输出以生成所述初始选通输出包括:
将可训练噪声参数集应用于所述第一层输出,以生成初始噪声输出;
将所述初始噪声输出与从正态分布中采样的噪声值的向量按元素相乘,以生成最终噪声输出;以及
将所述最终噪声输出添加到所述修改后的第一层输出。
10.根据权利要求7-9中任一项所述的系统,其中,所述稀疏化函数将所述初始选通输出中除了k个最高值以外的所有值设置为被softmax函数映射为零的值。
11.根据权利要求1-3中任一项所述的系统,其中所述选通子系统包括父选通子网和多个子选通子网,并且其中所述子选通子网中的每一个子选通子网管理所述多个专家神经网络的与每个其他子选通子网不相交的子集。
12.一个或多个存储指令的计算机存储介质,所述指令在由一个或多个计算机执行时使得所述一个或多个计算机实施权利要求1-11中任一项所述的相应系统。
13.一种方法,所述方法包括:
接收网络输入;以及
使用权利要求1-11中任一项所述的系统来处理所述网络输入,以生成所述网络输入的网络输出。
14.一个或多个存储指令的计算机存储介质,所述指令在由一个或多个计算机执行时使得所述一个或多个计算机执行权利要求13所述的方法的操作。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662418135P | 2016-11-04 | 2016-11-04 | |
US62/418,135 | 2016-11-04 | ||
US201662432497P | 2016-12-09 | 2016-12-09 | |
US62/432,497 | 2016-12-09 | ||
PCT/US2017/059909 WO2018085643A1 (en) | 2016-11-04 | 2017-11-03 | Mixture of experts neural networks |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109923558A true CN109923558A (zh) | 2019-06-21 |
Family
ID=60452764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780068472.2A Pending CN109923558A (zh) | 2016-11-04 | 2017-11-03 | 混合专家神经网络 |
Country Status (4)
Country | Link |
---|---|
US (3) | US10719761B2 (zh) |
JP (1) | JP6853354B2 (zh) |
CN (1) | CN109923558A (zh) |
WO (1) | WO2018085643A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110414669A (zh) * | 2019-07-02 | 2019-11-05 | 四川大学 | 一种加速神经网络结构选择的方法 |
WO2023137858A1 (zh) * | 2022-01-21 | 2023-07-27 | 清华大学 | 混合专家模型训练的性能优化方法和装置 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11379715B2 (en) * | 2017-12-15 | 2022-07-05 | Meta Platforms, Inc. | Deep learning based distribution of content items describing events to users of an online system |
US20210150388A1 (en) * | 2018-03-30 | 2021-05-20 | Nec Corporation | Model estimation system, model estimation method, and model estimation program |
US10846588B2 (en) * | 2018-09-27 | 2020-11-24 | Deepmind Technologies Limited | Scalable and compressive neural network data storage system |
CN111325311B (zh) * | 2018-12-14 | 2024-03-29 | 深圳云天励飞技术有限公司 | 用于图像识别的神经网络模型生成方法及相关设备 |
CN109657802B (zh) * | 2019-01-28 | 2020-12-29 | 清华大学深圳研究生院 | 一种混合专家强化学习方法及系统 |
US11093714B1 (en) * | 2019-03-05 | 2021-08-17 | Amazon Technologies, Inc. | Dynamic transfer learning for neural network modeling |
CA3094507A1 (en) * | 2019-10-25 | 2021-04-25 | The Governing Council Of The University Of Toronto | Systems, devices and methods for transfer learning with a mixture of experts model |
GB2599180A (en) * | 2020-06-01 | 2022-03-30 | Samsung Electronics Co Ltd | Method for improved binarized neural networks |
US11176495B1 (en) * | 2020-06-21 | 2021-11-16 | Liquidity Capital M. C. Ltd. | Machine learning model ensemble for computing likelihood of an entity failing to meet a target parameter |
CN115516461A (zh) * | 2020-06-30 | 2022-12-23 | 谷歌有限责任公司 | 具有条件计算的注意力神经网络 |
US20220059200A1 (en) * | 2020-08-21 | 2022-02-24 | Washington University | Deep-learning systems and methods for medical report generation and anomaly detection |
US20220121922A1 (en) * | 2020-10-20 | 2022-04-21 | Deci.Ai Ltd. | System and method for automated optimazation of a neural network model |
CN112487211B (zh) * | 2020-12-15 | 2024-04-26 | 交控科技股份有限公司 | 一种轨道交通知识库构建方法及系统 |
US20220191482A1 (en) * | 2020-12-16 | 2022-06-16 | Tencent America LLC | Method and apparatus for video coding |
EP4252152A1 (en) * | 2021-01-07 | 2023-10-04 | Google LLC | Neural networks with switch layers |
CN116997908A (zh) * | 2021-05-27 | 2023-11-03 | 渊慧科技有限公司 | 用于分类类型任务的连续学习神经网络系统训练 |
WO2023147140A1 (en) * | 2022-01-28 | 2023-08-03 | Google Llc | Routing to expert subnetworks in mixture-of-experts neural networks |
CN114841315A (zh) * | 2022-04-22 | 2022-08-02 | 北京百度网讯科技有限公司 | 混合专家模型实现方法、系统、电子设备及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0962645A (ja) * | 1995-08-22 | 1997-03-07 | Nippon Telegr & Teleph Corp <Ntt> | 専門家の階層混合モデルの構築的学習方法 |
JP2000251057A (ja) * | 1999-03-01 | 2000-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 入力機器用色再現方法及び装置、並びにこの方法のプログラムを記録した記録媒体 |
US6208983B1 (en) * | 1998-01-30 | 2001-03-27 | Sarnoff Corporation | Method and apparatus for training and operating a neural network for detecting breast cancer |
CN1524460A (zh) * | 2003-02-25 | 2004-09-01 | 中国海洋大学 | 建立卷烟叶组配方维护混合专家系统的方法 |
CN101634605A (zh) * | 2009-04-10 | 2010-01-27 | 北京工业大学 | 基于混合推理和神经网络的齿轮箱故障智能诊断方法 |
CN101793887A (zh) * | 2010-01-09 | 2010-08-04 | 中国水产科学研究院黄海水产研究所 | 大菱鲆养殖水质评价的模糊神经网络专家系统的构建方法 |
CN103324981A (zh) * | 2013-05-20 | 2013-09-25 | 浙江大学 | 基于神经网络的放化疗规范化质量控制的量化方法 |
CN103488887A (zh) * | 2013-09-16 | 2014-01-01 | 北京理工大学 | 一种基于混合专家网络的产品可靠性评估方法 |
CN104732274A (zh) * | 2015-03-10 | 2015-06-24 | 华南理工大学 | 一种智能计算机 |
CN105445646A (zh) * | 2015-12-14 | 2016-03-30 | 国家电网公司 | 基于神经网络专家系统的模数电路故障诊断的测试方法 |
CN105719001A (zh) * | 2014-12-19 | 2016-06-29 | 谷歌公司 | 使用散列的神经网络中的大规模分类 |
CN105868829A (zh) * | 2015-02-06 | 2016-08-17 | 谷歌公司 | 用于数据项生成的循环神经网络 |
CN105913450A (zh) * | 2016-06-22 | 2016-08-31 | 武汉理工大学 | 基于神经网络图像处理的轮胎橡胶炭黑分散度评价方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3035106B2 (ja) * | 1993-03-11 | 2000-04-17 | 株式会社東芝 | 大規模情報認識回路 |
US10453479B2 (en) * | 2011-09-23 | 2019-10-22 | Lessac Technologies, Inc. | Methods for aligning expressive speech utterances with text and systems therefor |
US10032256B1 (en) * | 2016-11-18 | 2018-07-24 | The Florida State University Research Foundation, Inc. | System and method for image processing using automatically estimated tuning parameters |
-
2017
- 2017-11-03 JP JP2019522815A patent/JP6853354B2/ja active Active
- 2017-11-03 CN CN201780068472.2A patent/CN109923558A/zh active Pending
- 2017-11-03 WO PCT/US2017/059909 patent/WO2018085643A1/en active Search and Examination
-
2019
- 2019-04-24 US US16/393,063 patent/US10719761B2/en active Active
-
2020
- 2020-05-20 US US16/879,187 patent/US11790214B2/en active Active
-
2023
- 2023-09-08 US US18/244,171 patent/US20230419079A1/en active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0962645A (ja) * | 1995-08-22 | 1997-03-07 | Nippon Telegr & Teleph Corp <Ntt> | 専門家の階層混合モデルの構築的学習方法 |
US6208983B1 (en) * | 1998-01-30 | 2001-03-27 | Sarnoff Corporation | Method and apparatus for training and operating a neural network for detecting breast cancer |
JP2000251057A (ja) * | 1999-03-01 | 2000-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 入力機器用色再現方法及び装置、並びにこの方法のプログラムを記録した記録媒体 |
CN1524460A (zh) * | 2003-02-25 | 2004-09-01 | 中国海洋大学 | 建立卷烟叶组配方维护混合专家系统的方法 |
CN101634605A (zh) * | 2009-04-10 | 2010-01-27 | 北京工业大学 | 基于混合推理和神经网络的齿轮箱故障智能诊断方法 |
CN101793887A (zh) * | 2010-01-09 | 2010-08-04 | 中国水产科学研究院黄海水产研究所 | 大菱鲆养殖水质评价的模糊神经网络专家系统的构建方法 |
CN103324981A (zh) * | 2013-05-20 | 2013-09-25 | 浙江大学 | 基于神经网络的放化疗规范化质量控制的量化方法 |
CN103488887A (zh) * | 2013-09-16 | 2014-01-01 | 北京理工大学 | 一种基于混合专家网络的产品可靠性评估方法 |
CN105719001A (zh) * | 2014-12-19 | 2016-06-29 | 谷歌公司 | 使用散列的神经网络中的大规模分类 |
CN105868829A (zh) * | 2015-02-06 | 2016-08-17 | 谷歌公司 | 用于数据项生成的循环神经网络 |
CN104732274A (zh) * | 2015-03-10 | 2015-06-24 | 华南理工大学 | 一种智能计算机 |
CN105445646A (zh) * | 2015-12-14 | 2016-03-30 | 国家电网公司 | 基于神经网络专家系统的模数电路故障诊断的测试方法 |
CN105913450A (zh) * | 2016-06-22 | 2016-08-31 | 武汉理工大学 | 基于神经网络图像处理的轮胎橡胶炭黑分散度评价方法及系统 |
Non-Patent Citations (4)
Title |
---|
DAVID EIGEN: "Learning Factored Representations in a Deep Mixture of Experts", 《ARXIV》 * |
MICHAEL I. JORDAN: "Hierarchical mixtures of experts and the EM algori", 《PROCEEDINGS OF 1993 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS》 * |
PAR NICHOLAS LEONARD: "Distributed Conditional Computation", 《UNIVERSITE DE MONTREAL》 * |
邓武: "粗糙集、神经网络和专家系统模型用于电力系统故障诊断", 《高电压技术》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110414669A (zh) * | 2019-07-02 | 2019-11-05 | 四川大学 | 一种加速神经网络结构选择的方法 |
WO2023137858A1 (zh) * | 2022-01-21 | 2023-07-27 | 清华大学 | 混合专家模型训练的性能优化方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
US20200279150A1 (en) | 2020-09-03 |
JP6853354B2 (ja) | 2021-03-31 |
EP3535704A1 (en) | 2019-09-11 |
US20230419079A1 (en) | 2023-12-28 |
US20190251423A1 (en) | 2019-08-15 |
US11790214B2 (en) | 2023-10-17 |
US10719761B2 (en) | 2020-07-21 |
WO2018085643A1 (en) | 2018-05-11 |
JP2019537133A (ja) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109923558A (zh) | 混合专家神经网络 | |
US10929614B2 (en) | Automated contextual dialog generation for cognitive conversation | |
JP6790286B2 (ja) | 強化学習を用いたデバイス配置最適化 | |
US10713574B2 (en) | Cognitive distributed network | |
EP3568811A1 (en) | Training machine learning models | |
WO2018126213A1 (en) | Multi-task learning using knowledge distillation | |
WO2020160252A1 (en) | Task-aware neural network architecture search | |
JP7431833B2 (ja) | 言語シーケンスラベリング方法、装置、プログラム及びコンピューティング機器 | |
EP3580698B1 (en) | Hierarchical device placement with reinforcement learning | |
US20220358292A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
US20230222318A1 (en) | Attention neural networks with conditional computation | |
US20170228414A1 (en) | Generating feature embeddings from a co-occurrence matrix | |
EP3602417A1 (en) | Selecting answer spans from electronic documents using machine learning | |
US11790894B2 (en) | Machine learning based models for automatic conversations in online systems | |
US20220383119A1 (en) | Granular neural network architecture search over low-level primitives | |
CN111667069A (zh) | 预训练模型压缩方法、装置和电子设备 | |
CN110955765A (zh) | 智能助理的语料构建方法、装置、计算机设备和存储介质 | |
CN109002498B (zh) | 人机对话方法、装置、设备及存储介质 | |
CN114970666B (zh) | 一种口语处理方法、装置、电子设备及存储介质 | |
CN110851580A (zh) | 一种基于结构化用户属性描述的个性化任务型对话系统 | |
US20240013769A1 (en) | Vocabulary selection for text processing tasks using power indices | |
CN112347242B (zh) | 摘要生成方法、装置、设备及介质 | |
CN115510203B (zh) | 问题答案确定方法、装置、设备、存储介质及程序产品 | |
EP3535704B1 (en) | Mixture of experts neural networks | |
US20230124177A1 (en) | System and method for training a sparse neural network whilst maintaining sparsity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |