CN114648093A - 促进神经网络之间的高效知识共享的方法和装置 - Google Patents
促进神经网络之间的高效知识共享的方法和装置 Download PDFInfo
- Publication number
- CN114648093A CN114648093A CN202111251870.2A CN202111251870A CN114648093A CN 114648093 A CN114648093 A CN 114648093A CN 202111251870 A CN202111251870 A CN 202111251870A CN 114648093 A CN114648093 A CN 114648093A
- Authority
- CN
- China
- Prior art keywords
- bnn
- weight distribution
- knowledge sharing
- subset
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 131
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000013531 bayesian neural network Methods 0.000 claims abstract description 305
- 238000009826 distribution Methods 0.000 claims abstract description 182
- 238000012549 training Methods 0.000 claims abstract description 110
- 238000002156 mixing Methods 0.000 claims description 18
- 239000000203 mixture Substances 0.000 claims description 13
- 238000004519 manufacturing process Methods 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 26
- 238000003860 storage Methods 0.000 description 21
- 210000002569 neuron Anatomy 0.000 description 18
- 239000003795 chemical substances by application Substances 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000010354 integration Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000002068 genetic effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 206010027175 memory impairment Diseases 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000012614 Monte-Carlo sampling Methods 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开涉及促进神经网络之间的高效知识共享的方法和装置。公开了用于促进神经网络之间的高效知识共享的示例方法、装置、系统和制品。示例装置包括训练器,用于在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布,并且在第二计算系统处在训练数据的第二子集上训练第二BNN以生成第二权重分布,训练数据的第二子集不同于训练数据的第一子集。示例装置包括知识共享控制器,用于基于第一权重分布和第二权重分布来生成第三BNN。
Description
技术领域
本公开概括而言涉及神经网络,更具体而言,涉及促进神经网络之间的高效知识共享的方法和装置。
背景技术
近年来,机器学习和/或人工智能已越来越流行。例如,可利用神经网络来实现机器学习和/或人工智能。神经网络是受人脑的神经网络启发的计算系统。神经网络可接收输入并且生成输出。神经网络可基于反馈而被训练(例如,可以学习),从而使得输出对应于期望的结果。一旦经过训练,神经网络就可基于任何输入来做出决策以生成输出。神经网络被用于人工智能和/或机器学习的新兴领域。贝叶斯神经网络是一种特定类型的神经网络,它包括输出可变权重而不是固定权重的神经元。该可变权重属于由在贝叶斯神经网络的训练期间确定的均值和方差定义的概率分布。
发明内容
根据本公开的一个实施例,提供了一种促进神经网络之间的知识共享的方法,该方法包括:在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布;在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集;以及基于所述第一权重分布和所述第二权重分布来生成第三BNN。
根据本公开的另一实施例,提供了至少一个计算机可读介质,包括指令,所述指令当被执行时,使得至少一个处理器至少:在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布;在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集;并且基于所述第一权重分布和所述第二权重分布来生成第三BNN。
根据本公开的又一实施例,提供了一种促进神经网络之间的知识共享的装置,包括:用于训练的装置,用于:在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布;并且在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集;以及用于知识共享的装置,用于基于所述第一权重分布和所述第二权重分布来生成第三BNN。
附图说明
图1是示例贝叶斯神经网络的示意性图示。
图2图示了包括示例第一BNN系统和示例第二BNN系统的示例环境。
图3图示了图2的环境,其中第一BNN系统包括示例第一知识共享控制器并且第二BNN系统包括示例第二知识共享控制器以根据本公开的教导来促进知识共享。
图4是图3的示例第一知识共享控制器和/或示例第二知识共享控制器的示意性图示。
图5是示例知识共享系统的示意性图示。
图6是实现混合函数的示例知识共享系统的示意性图示。
图7是示例知识共享体系结构的示意性图示。
图8是示例第一BNN和示例第二BNN的示例知识共享体系结构的示意性图示。
图9是实现深度神经网络的示例知识共享系统的示意性图示。
图10是表示可被执行来实现图4的示例知识共享控制器以促进知识共享的示例机器可读指令的流程图。
图11是表示可被执行来实现图4的示例知识共享控制器以混合权重分布的示例机器可读指令的流程图。
图12是表示可被执行来实现图4的示例神经网络控制器以为知识共享训练深度神经网络的示例机器可读指令的流程图。
图13是被构造来执行图10-12的指令以实现示例知识共享控制器的示例处理平台的框图。
图14是示例软件分发平台的框图,用于将软件(例如,与图10-图12的示例计算机可读指令相对应的软件)分发到客户端设备,例如消费者(例如,用于许可、销售和/或使用)、零售商(例如,用于销售、再销售、许可和/或次级许可)、和/或原始设备制造商(OEM)(例如,用于包括在要被分发到例如零售商和/或直接购买客户的产品中)。
附图不是按比例的。一般而言,相同的标号将在各幅图和伴随的书面描述的各处被用于指代相同或相似的部件。
除非另有具体声明,否则诸如“第一”、“第二”、“第三”等等之类的描述语在本文使用,而没有输入或以其他方式指示出任何优先权、物理顺序、在列表中的排列和/或以任何方式排序的含义,而只是用作标签和/或任意名称来区分元素,以便易于理解公开的示例。在一些示例中,描述语“第一”在详细描述中可被用于提及某一元素,而同一元素在权利要求中可被用不同的描述语来提及,例如“第二”或“第三”。在这种情况下,应当理解,这种描述语仅仅用于明确地识别那些元素,这些元素例如可能在其他情况下共享同一名称。就本文使用的而言,“基本上实时”指的是以近乎瞬时的方式发生,承认现实世界中可能存在计算时间、传输等等方面的延迟。从而,除非另有指明,否则“基本上实时”指的是实时+/-1秒。
具体实施方式
贝叶斯神经网络(Bayesian Neural Network,BNN)是机器学习神经网络,能够在推断时计算认知上的不确定性(例如,系统上的不确定性)和偶然的不确定性(例如,统计上的不确定性)。例如,系统(例如,计算系统)可包括在不同的环境下操作的至少一个或多个代理(例如,计算设备、计算处理器、计算系统,等等),它们使用BNN来独立地学习。也就是说,系统可以使用BNN的集成(ensemble)。在这样的系统中,可能存在包括第一数据子集和第二数据子集的数据集合。另外,在这样的系统中,可能存在在第一计算环境中的第一计算设备上操作的、使用第一数据子集来训练的第一BNN。类似地,可能存在在第二计算环境中的第二计算设备上操作的、使用第二数据子集来训练的第二BNN。因此,在第一BNN和第二BNN之间共享训练知识,以便第一BNN或第二BNN能够对数据集合(例如,第一数据子集和第二数据子集)准确地执行推断,可能在计算上是效率低下或者是不可行的。
例如,两个或多个移动代理可以在环境的不同区域下学习策略(例如,意图预测、碰撞避免,等等)(例如,在不同的计算环境中使用不同的数据子集来训练每个代理)。从而,移动代理确定不同的极端情况。在本文公开的实施例中,移动代理共享它们的知识,导致性能类似于每个移动代理在完整的环境下被训练的情况(例如,使用所有数据子集来训练)。因此,本文公开的实施例加快了训练时间,以实现期望的性能。
先前技术在确定性神经网络的情境中已探索了集成方法,其中集成的所有成员共享相同的网络拓扑,但具有不同的权重和参数集合。例如,先前的技术使用套袋和提升(bagging and boosting)来确定网络参数(例如,用不同的随机初始化来训练集成的成员)。先前的技术也可以通过随机化采样和正则化来确定集成的参数以提供贝叶斯后验的一致估计值(例如,个体成员是确定性的神经网络,但集成总体上表现为BNN)。
在持续学习的领域中已探索了从新的和先前未见过的数据中学习。在持续学习的情况中,当获得新的和先前未见过的数据时,网络的参数被更新。然而,持续学习经常与灾难性遗忘相关联,这是神经网络在学习新数据的同时忘记旧数据的一种状况。缓解灾难性遗忘的先前技术包括通过非贝叶斯和/或贝叶斯技术确定所学参数的相对重要性,和/或要求存储先前数据样本的任何其他技术。
一些示例持续学习技术更新单个网络的参数,而不是维持各模型的集成。这种先前技术与灾难性遗忘相关联(例如,当网络被更新以从新数据学习时,网络会忘记先前的数据)。解决灾难性遗忘的先前技术涉及到保留旧训练数据的样本的一部分。在用新数据进行训练时,旧的训练数据被重放给网络。然而,随着获得新数据,计算成本增大了。例如,数据集的大小增大,从而增大了保留旧数据所要求的存储量。本文公开的示例减小了计算存储器要求,因为权重的后验分布在新的学习任务中变成了先验。也就是说,旧的训练数据不被存储和重放以用于持续学习。
先前的集成方法使用联合学习(federated learning)。联合学习涉及从本地节点或客户端(例如,多个本地设备、服务器,等等)中包含的多个本地数据集中学习单个全局模型。联合学习的一般原则包括在本地数据样本上训练本地模型并且在本地模型之间交换参数。在一些示例中,全局模型驻留在中央服务器上。本地节点不与服务器共享本地数据集,而只向全局模型传达更新。集中式服务器使用加权平均法(例如,FedAveraging)对更新进行汇总。然而,这种平均技术并不考虑个体模型的信心或不确定性。本文公开的示例估计了个体模型的不确定性,并且在汇总期间使用不确定性来获得更稳健的结果。
本文公开的示例提出了具有相同和/或不同体系结构的BNN,用于知识共享。本文公开的示例混合了BNN的权重分布以生成额外的BNN。当对完整的数据集进行评估时,额外的BNN比最初的BNN表现得相对更好(例如,更高的准确性)。一种纯朴的知识共享方法是在完整的数据集上使用每个BNN进行推断,并且选择具有最低不确定性的BNN的输出。然而,这种方法与高计算成本相关联,因为在推断时要运行所有的BNN。
在本文公开的示例中,来自多个BNN的权重分布被用来捕捉不同局部模式下的后验,从而产生表示数据分布的多模式后验。在一些示例中,蒙特卡洛采样组合了从用不同数据分布训练的多个模型中获得的知识。从而,当观察到新数据时,所得到的BNN继续被训练。也就是说,本文公开的技术适合于持续学习。此外,本文公开的技术可缩放到大规模模型。由于缩放大规模数据集和复杂模型的难度,在BNN中推断后验是具有挑战性的。本文公开的示例使得BNN中的可缩放学习成为可能,因为每个网络(例如,代理)学习完全因素化的分布,这些分布在局部模式中捕获用于表示观察到的数据分布的权重后验,之后组合后验来表示所有网络观察到的多模式分布。
图1是示例神经网络(NN)训练器102训练示例BNN 104的示意性图示。在一些示例中,NN训练器102实现用于训练神经网络的装置。示例BNN 104包括示例存储器108,以及示例神经元110。虽然图1中图示的神经元110包括六个神经元,但可以有采取任何类型的配置的任何数目的神经元。
图1的示例NN训练器102通过为每个神经元110选择平均权重和平均权重的偏差量来训练BNN 104。最初,BNN 104是未经训练的(例如,神经元还没有被用均值和偏差进行加权)。为了训练BNN 104,图1的示例NN训练器102使用训练数据(例如,用已知的分类和/或输出来标记的输入数据)来配置BNN 104,以便能够为具有未知分类的输入数据预测输出分类。NN训练器102可以用第一训练数据集合来训练模型,并且用第二训练数据集合来测试该模型。如果基于测试的结果,模型的准确度低于阈值,则NN训练器102可使用额外的训练数据集合来调节(例如,调整、进一步训练,等等)模型的参数,并且继续测试,直到准确度高于阈值为止。在NN训练器102训练了BNN 104之后,示例NN训练器102在示例BNN 104的示例存储器108中为各个神经元110存储相应的均值和偏差。示例NN训练器102可被实现在与BNN104相同的设备中和/或实现在与示例BNN 104进行通信的单独设备中。例如,NN训练器102可位于远程,在本地开发权重数据,并且将权重数据(例如,各个神经元110的均值和偏差)部署到BNN 104以便实现。
图1的示例BNN 104还包括示例存储器108。示例存储器108结合特定的神经元存储来自示例NN训练器102的权重数据。例如,存储器108的第一部分专门用于第一神经元的第一均值和第一方差值,存储器108的第二部分专门用于第二神经元的第二均值和第二方差值,等等。均值可作为代表均值的比特值被存储在专用部分中。
图1的示例神经元110接收输入数据,生成与概率分布相对应的权重,并且将该权重应用于输入数据以生成输出。例如,如果神经元的概率分布遵循标准正态分布,该神经元的平均权重是0.7,并且该神经元的方差是0.01(例如,标准偏差是0.1),那么该神经元将有68%的机会输出0.6和0.8之间的权重(例如,离均值一个标准偏差),有95%的机会该神经元将输出0.5和0.9之间的权重(例如,离均值两个标准偏差),等等。相应地,由输出生成的权重在每次生成权重时可能是不同的,但将会遵循该概率分布。
图2图示了包括示例第一BNN系统202和示例第二BNN系统204的示例环境200。虽然图2的图示示例包括两个BNN系统(例如,第一BNN系统202和第二BNN系统204),但本文公开的示例可包括任何数目的BNN系统(例如,三个BNN系统、四个BNN系统,等等)。在图2的示例中,第一BNN系统202和/或第二BNN系统204可以实现图1的示例BNN 104和/或NN训练器102。例如,第一BNN系统202可以实现图1的NN训练器102和BNN 104。同样地,第二BNN系统204可以在与第一BNN系统202分开的执行空间中实现图1的NN训练器102和BNN 104。
在图2的示例环境200中,第一BNN系统202和第二BNN系统204与示例网络206进行通信。在图2中,网络206是被配置为与第一BNN系统202和第二BNN系统204通信的无线网络(例如,云网络)。在本文公开的其他示例中,可以使用任何适当的有线和/或无线网络来实现网络206。
网络206进一步存储示例数据集208。这样的数据集208包括示例的第一数据子集210和示例的第二数据子集212。在一些示例中,第一数据子集210和/或第二数据子集212是非完整数据集。例如,第一数据子集210和第二数据子集212可包括重叠的、不重叠的(例如,互斥的)和/或部分重叠的数据集。在操作中,网络206将第一数据子集210传输到第一BNN系统202。网络206进一步将第二数据子集212传输到第二BNN系统204。
在图2的示例中,网络206将第一数据子集210传输到第一BNN系统202,供第一BNN系统202在训练中使用。同样地,网络206将第二数据子集212传输到第二BNN系统204,供训练中使用。在本文公开的示例中,第一数据子集210、第二数据子集212、和/或更一般而言地数据集208,可以对应于适合用于训练BNN系统(例如,第一BNN系统202和/或第二BNN系统204)的任何数据。例如,第一数据子集210、第二数据子集212、和/或更一般而言地数据集208,可以对应于用于学习策略(例如,意图预测、碰撞避免,等等)的数据集合。另外,在这样的示例中,数据集208可对应于修改后国家标准和技术研究所(modified nationalinstitute of standards and technology,MNIST)数据库,从而,第一数据子集210可对应于MNIST数据库中的与数字0、1、2、3和4(例如,0-4类)相对应的元素,并且第二数据子集212可对应于MNIST数据库中的与数字5、6、7、8和9(例如,5-9类)相对应的元素。额外地或者替换地,第一数据子集210可对应于数字0、1、2、3、4和5(例如,0-5类),并且第二数据子集212可对应于数字4、5、6、7、8和9(例如,4-9类)。从而,第一BNN系统202与对应于第一数据子集210的第一权重分布相关联,并且第二BNN系统204与对应于第二数据子集212的第二权重分布相关联。
图3图示了图2的环境200,其中第一BNN系统202包括示例第一知识共享控制器302,并且第二BNN系统204包括示例第二知识共享控制器304。在一些示例中,第一知识共享控制器302实现用于知识共享的第一装置,并且第二知识共享控制器304实现用于知识共享的第二装置。在一些示例中,示例知识共享控制器302、304基于来自BNN的输入分布来产生权重分布。例如,第一知识共享控制器302访问第一BNN系统202的权重分布并且接收第二BNN系统204的权重分布(例如,经由网络206)以生成第三权重分布。同样地,第二知识共享控制器304访问第二BNN系统204的权重分布并且接收第一BNN系统202的权重分布(例如,经由网络206)以生成第四权重分布。从而,示例第一BNN系统202和示例第二BNN系统204共享它们权重分布的参数。
在一些示例中,第一知识共享控制器302和/或第二知识共享控制器304使用函数来基于来自BNN的输入权重分布生成额外的权重分布。例如,第一知识共享控制器302和第二知识共享控制器304可以使用高斯混合模型(Gaussian Mixture Model,GMM)来确定额外的权重分布。下面联系图6-图8进一步详细描述用于混合代理的分布的混合函数。
本文公开的实施例可以额外地或者替换地使用任何其他混合和/或生成函数,用于代理之间的知识共享。例如,第一知识共享控制器302和/或第二知识共享控制器304可以实现被训练来确定混合函数的完全连接神经网络。也就是说,第一知识共享控制器302和/或第二知识共享控制器304的神经网络接收BNN的高斯分布的均值和方差作为输入并且产生高斯分布。下面将联系图9进一步详细描述用于知识共享的完全连接神经网络。
图4是图3的示例第一知识共享控制器302和/或示例第二知识共享控制器304的示意性图示。示例知识共享控制器302、304包括示例数据访问器402、示例函数生成器404、示例数据采样器406、示例NN控制器408、以及示例参数数据库410。
示例数据访问器402访问存储在BNN系统中的数据。在一些示例中,数据访问器402实现用于访问数据的装置。例如,数据访问器402获得图2的第一BNN系统202的权重分布的参数和/或第二BNN系统204的权重分布的参数。额外地或者替换地,数据访问器402获得BNN的均值和/或方差。例如,数据访问器402获得第一BNN系统202的均值和方差以及第二BNN系统204的均值和方差。在一些示例中,数据访问器402可以访问存储在图1的存储器108中的数据。在一些示例中,数据访问器402响应于查询、以手动方式、以周期性方式、以排定的方式等等访问存储在第一BNN系统202和/或第二BNN系统204中的数据。
示例函数生成器404生成混合函数。在一些示例中,函数生成器404实现了用于生成混合函数的装置。例如,函数生成器404生成GMM,并且将概率质量指派给BNN系统202、204的高斯分布。例如,函数生成器404混合每个权重的高斯(例如,第一BNN系统202和第二BNN系统204的权重分布),使得所有的概率质量只被指派给混合中的高斯之一。
示例数据采样器406对第一BNN系统202和/或第二BNN系统204的概率分布进行采样。在一些示例中,数据采样器406实现了用于对数据采样的装置。例如,数据采样器406对分类分布的随机变量进行采样,该分类分布可以是表示输入网络的M个(例如,BNN系统的数目)可能类别之一。在一些示例中,数据采样器406向每个类别(例如,BNN系统)指派概率,使得每个类别的概率在0到1的范围内,并且类别的概率之和为1。例如,数据采样器406向第一BNN系统202和第二BNN系统204的分布指派相同的概率质量(例如,均匀加权)。也就是说,数据采样器406对第一BNN系统202或第二BNN系统204进行采样的概率是相等的。额外地或者替换地,数据采样器406可以基于每个代理(例如,第一BNN系统202和第二BNN系统204)观察到的统计信息,来向类别指派概率。例如,数据采样器406可以指派与每个代理观察到的类的数目成比例的概率。在一些示例中,数据采样器406基于样本生成权重分布的参数。例如,数据采样器406基于第一BNN系统202和第二BNN系统204的采样权重分布来确定权重分布。在一些示例中,数据采样器406将权重分布存储在参数数据库410中。
示例NN控制器408训练确定型神经网络(deterministic neural network,DNN)。在一些示例中,NN控制器408实现用于训练神经网络的装置。例如,NN控制器408在遗传算法上训练DNN。然而,NN控制器408可以使用任何其他适当的训练算法来训练DNN。经训练的DNN基于输入的均值和方差来生成均值和方差。也就是说,NN控制器408将均值和方差输入到DNN中以生成均值和方差。在一些示例中,NN控制器408将生成的均值和方差存储在参数数据库410中。例如,DNN接收第一BNN系统202的均值和方差以及第二BNN系统204的均值和方差作为输入。DNN输出第三均值和方差,使得第三均值和第三方差定义第三BNN的权重分布的概率分布。
示例参数数据库410存储生成的权重分布的参数。例如,参数数据库410存储由数据采样器406和/或NN控制器408生成的权重分布。图4图示的示例的示例参数数据库410由用于存储数据的任何存储器、存储设备和/或存储盘实现,例如,闪存、磁介质、光介质、固态存储器、(一个或多个)硬盘驱动器、(一个或多个)拇指驱动器,等等。此外,存储在示例参数数据库410中的数据可采取任何数据格式,例如,二进制数据、逗号分隔数据、制表符分隔数据、结构化查询语言(structured query language,SQL)结构,等等。虽然在图示的示例中,参数数据库410被图示为单个设备,但示例参数数据库410和/或本文描述的任何其他数据存储设备可以由任何数目和/或任何(一个或多个)类型的存储器来实现。
图5是示例知识共享系统500的示意性图示。示例知识共享系统500包括示例训练阶段502和示例推断阶段504。示例训练阶段502包括示例第一BNN系统506和示例第二BNN系统508。在图5的图示示例中,第一BNN系统506和/或第二BNN系统508可以实现图1的示例BNN104和/或NN训练器102。例如,第一BNN系统506可以实现图1的NN训练器102和BNN 104。同样地,第二BNN系统508可以在与第一BNN系统506分开的执行空间中实现图1的NN训练器102和BNN 104。
在图5的图示示例中,示例第一BNN系统506访问示例第一数据集510,并且示例第二BNN系统508访问示例第二数据集512。在图5的图示示例中,第一数据集510和第二数据集512对应于MNIST数据。在一些示例中,第一数据集510和第二数据集512是不完整的。也就是说,第一数据集510对应于0-4类,并且第二数据集512对应于5-9类。额外地或者替换地,第一数据集510和第二数据集512对应于部分重叠的数据集。例如,第一数据集510对应于0-6类,并且第二数据集512对应于4-9类。示例第一BNN系统506在第一数据集510上进行训练以生成示例第一输出514,并且第二BNN系统508在第二数据集512上进行训练以生成示例第二输出516。
示例推断阶段504包括示例第一BNN系统506和示例第二BNN系统508。在示例推断阶段504中,第一BNN系统506和第二BNN系统508访问示例第三数据集518。在图5的图示示例中,第三数据集518是完整的MNIST数据集。也就是说,第三数据集518包括第一数据集510和第二数据集512的数据(例如,0-9类)。第一BNN系统506访问第三数据集518并且生成示例第三输出520。同样地,第二BNN系统508访问第三数据集518并且生成示例第四输出522。然而,因为第一BNN系统506和第二BNN系统508是用不完整的数据集(例如,分别是第一数据集510和第二数据集512)来训练的,所以第三输出420和第四输出422具有大约50%的准确度。
在图5的图示示例中,示例推断阶段504包括示例知识共享控制器524。示例知识共享控制器524获得示例第一输入526和示例第二输入528。例如,第一输入526对应于第一BNN系统506的权重分布,并且第二输入528对应于第二BNN系统508的权重分布。额外地或者替换地,第一输入526对应于与第一BNN系统506相关联的第一均值和方差,并且第二输入528对应于与第二BNN系统508相关联的第二均值和方差。
知识共享控制器524基于第一输入526和第二输入528确定第三权重分布,以生成示例第三BNN系统530。从而,第三BNN系统530的权重分布是基于完整数据集(例如,第一数据集510和第二数据集512)的数据的,而没有在第三数据集518上训练。第三BNN系统530访问第三数据集518并且生成示例第五输出532。因为第三BNN系统530的权重分布是基于第一输入526和第二输入528的,所以第五输出532具有比第三输出520和/或第四输出522相对更高的准确度(例如,大于50%的准确度)。
图6是实现混合函数的示例知识共享系统600的示意性图示。示例知识共享系统600包括示例第一BNN系统602和示例第二BNN系统604。例如,第一BNN系统602可以实现图3的第一BNN系统202,并且第二BNN系统604可以实现图3的示例第二BNN系统204。第一BNN系统602包括示例神经网络606和示例知识共享控制器608。在一些示例中,神经网络606是BNN。例如,神经网络606可以实现图1的示例BNN 104,并且知识共享控制器608可以实现图3的示例第一知识共享控制器302。
示例神经网络606生成示例第一参数集合610。例如,神经网络606在第一数据子集(未图示)上进行训练以生成第一参数集合610。第一BNN系统602获得示例第二参数集合612。在图6的图示示例中,第二参数集合612由第二BNN系统604生成。例如,第二BNN系统604包括在第二数据子集(未图示)上训练以生成第二参数集合612的第二神经网络(未图示)。
示例知识共享控制器608获得第一参数集合610和第二参数集合612。然而,示例知识共享控制器608可以获得任何数目的参数集。例如,知识共享控制器608可以获得与第三BNN系统(未图示)相对应的第三参数集合,与第四BNN系统(未图示)相对应的第四参数集合,等等。示例知识共享控制器608实现了用于混合第一参数集合610和第二参数集合612的功能。例如,知识共享控制器608可以推导出GMM,并且在推断期间对GMM进行采样。下面将联系图7-图8进一步详细描述示例知识共享控制器608和混合函数。
示例知识共享控制器608生成示例第三参数集合614。第三参数集合614是基于第一参数集合610和第二参数集合612的。示例神经网络606获得第三参数集合614并且更新第一参数集合610。也就是说,神经网络606基于第三参数集合614来调整参数(例如,第一参数集合610)的权重分布。例如,神经网络606用第三参数集合614来替换第一参数集合610。从而,神经网络606的更新后权重分布是基于用来训练第二BNN系统604的数据子集的。在一些示例中,神经网络606存储第三参数集合614(例如,在图1的存储器108中)。
图7是示例知识共享体系结构700的示意性图示。示例知识共享体系结构700包括示例第一神经网络702、示例第二神经网络704、以及示例第三神经网络706。例如,第一神经网络702、第二神经网络704和第三神经网络706是BNN。在图7的图示示例中,神经网络702、704、706访问相同类型的(一个或多个)输入,产生相同类型的(一个或多个)输出,并且具有相同的(一个或多个)内部体系结构。例如,第一神经网络702是在示例第一数据集708上训练的,第二神经网络704是在示例第二数据集710上训练的,并且第三神经网络706是在示例第三数据集712上训练的。
在本文公开的示例中,知识共享控制器(例如,图3的第一知识共享控制器302和/或第二知识共享控制器304,图4的知识共享控制器424,图6的知识共享控制器608,等等)获得神经网络702、704、706的权重分布的参数,以生成示例第四神经网络714。在本文公开的示例中,不在第一数据集708、第二数据集710和/或第三数据集712上重新训练第四神经网络714。示例知识共享控制器将神经网络702、704、706的权重组合起来,以便由第四神经网络714进行推断。例如,如果神经网络702、704、706的权重是正态分布,则第四神经网络714将是在推断期间采样的GMM。额外地或者替换地,知识共享控制器改为使用相同的BNN(例如,神经网络702、704、706)并且通过混合神经网络702、704、706的权重来更新权重。在这样的示例中,知识共享控制器不生成第四神经网络714。
在图7的图示示例中,第四神经网络714涵盖了由神经网络702、704、706获取的知识,以从数据集708、710、712进行推断。例如,神经网络702、704、706从第一数据集708、第二数据集710和第三数据集712进行推断的准确度最多只有33%。然而,由于第四神经网络714包含了神经网络702、704、706的权重分布的参数,所以第四神经网络714从第一数据集708、第二数据集710和/或第三数据集712进行推断的准确度相对高于神经网络702、704、706的准确度。
图8是示例第一BNN 802和示例第二BNN 804的示例知识共享体系结构800的示意性图示。在图8的图示示例中,第一BNN 802的体系结构是完全连接的,并且第二BNN 804的体系结构是卷积的。在上述示例中,第一BNN和第二BNN(未图示)是在不完整的数据集上训练的。在一些示例中,第一BNN和第二BNN是完全连接的(例如,实现第一BNN 802)。在一些示例中,第一BNN和第二BNN是卷积的(例如,实现第二BNN804)。例如,使用MNIST数据,使用来自0-4类的数据来训练第一BNN,并且使用来自5-9类的数据来训练第二BNN。在本文公开的示例中,知识共享控制器基于第一和第二BNN的权重分布来生成第三BNN。表格1说明了使用完整数据集(例如,0-9类)的第一、第二和第三BNN的输出的近似准确度。
体系结构 | BNN1 | BNN2 | BNN3 |
完全连接BNN | 47.86 | 51.10 | 71.68 |
卷积BNN | 48.26 | 51.23 | 87.37 |
表格1
在表格1的说明示例中,完全连接体系结构和卷积体系结构两者的第一BNN和第二BNN在对完整数据集进行推断时都有大约50%的准确率。与之对比,相对于第一和第二BNN,第三BNN在对完整数据集进行推断时具有相对较高的准确度。
图9是示例知识共享系统900的示意性图示。示例知识共享系统900包括示例第一BNN 902和示例第二BNN 904。在一些示例中,第一BNN902在第一数据集上训练,并且第二BNN 904在第二数据集上训练。例如,数据集可以是MNIST数据,并且第一数据集可以是0-4类,第二数据集可以是5-9类。第一BNN 902生成示例第一输出906,并且第二BNN 904生成示例第二输出908。在图9的图示示例中,第一输出906是第一均值和第一方差。例如,第一均值和第一方差定义了第一BNN 902的权重分布的概率分布。类似地,第二输出908是第二均值和第二方差。例如,第二均值和第二方差定义了第二BNN 904的权重分布的概率分布。
示例知识共享系统900包括示例知识共享控制器910。在图9的图示示例中,知识共享控制器910是DNN。示例知识共享控制器910获得第一输出906和第二输出908。也就是说,知识共享控制器910获得四个输入(例如,第一均值、第一方差、第二均值和第二方差)。示例知识共享控制器910基于四个输入生成示例第三输出912。例如,第三输出912包括第三均值和第三方差。在图9的图示示例中,知识共享控制器910基于第三输出912生成示例第三BNN914。例如,第三均值和第三方差定义了第三BNN914的权重分布的概率分布。
与第一知识共享系统(例如,图6的知识共享系统600、图7的知识共享体系结构700和/或图8的知识共享体系结构800)相比,第一BNN 902和第二BNN 904的权重分布在推断期间不变化。也就是说,知识共享控制器910的DNN用作第一均值和方差以及第二均值和方差的映射来确定第三均值和方差。额外地或者替换地,知识共享控制器910生成示例第三BNN914。在一些示例中,第三BNN 914的权重分布是高斯分布。在一些示例中,知识共享控制器910对两个网络(例如,第一BNN 902和第二BNN904)上的所有权重使用相同的DNN。
在一些示例中,知识共享系统900的数据集是MNIST数据,并且图1的NN训练器102使用来自0-4类的数据来训练第一BNN 902。NN训练器102使用来自5-9类的数据来训练第二BNN 904。如上所述,在对完整数据集(例如,来自0-9类的数据)进行推断期间,BNN 902、904的输出具有大约50%的准确度。
示例知识共享控制器910被训练来确定第三输出912(例如,第三均值和第三方差)。在一些示例中,可以使用任何机器学习训练方法(包括例如遗传算法)来训练知识共享控制器910。例如,知识共享控制器910生成初始群体(例如,确定多个不同的完全连接权重)。示例知识共享控制器910生成第三BNN 914以评估初始群体的完全连接权重,并且用作适应度函数。知识共享控制器910将交叉和/或突变应用于初始群体以生成第二代。知识共享控制器910确定观察到的第二代的适应度,并且将观测适应度与适应度阈值进行比较。例如,适应度阈值可以是55%,60%,等等。如果观察到的适应度不满足适应度阈值,则知识共享控制器910生成额外的一代(例如,第三代、第四代,等等)。在一些示例中,如果观察到的适应度小于适应度阈值,已经生成了阈值代数,等等,则知识共享控制器910生成额外的代。
在一些示例中,第三BNN 914的验证率为50%。例如,知识共享控制器910可以学习丢弃来自第一BNN 902的权重并且保留来自第二BNN 904的权重。从而,适应度函数可以被修改以向较高的验证准确度(例如,大于适应度阈值的验证准确度)和知识共享控制器910的均值和方差的输出定义相对较高的重要性。例如,适应度可以通过示例公式1来定义。
适应度=准确度+α(β(μ3,σ3,μ1,σ1)+β(μ3,σ3,μ2,σ2))
公式1
在公式1中,α是超参数,并且β(μ3,σ3,μ1,σ1)是输入分布和输出分布之间的Hellinger距离。也就是说,项β(μ3,σ3,μ1,σ1)决定了知识共享控制器910的输入和输出概率密度函数(probability density function,PDF)之间的差异。然而,知识共享控制器910可以使用任何其他适当的技术来确定适应度。在一些示例中,第三BNN 914的准确度在26代之后增大到67.02%。
虽然在图4中图示了实现图3的第一知识共享控制器302和/或第二知识共享控制器304的示例方式,但图4中所示的元件、过程和/或设备中的一个或多个可被组合、划分、重布置、省略、消除和/或以任何其他方式来实现。另外,示例数据访问器402、示例函数生成器404、示例数据采样器406、示例NN控制器408、示例参数数据库410和/或更概括而言图3的示例第一知识共享控制器302和/或示例第二知识共享控制器304可以通过硬件、软件、固件和/或硬件、软件和/或固件的任何组合来实现。从而,例如,示例数据访问器402、示例函数生成器404、示例数据采样器406、示例NN控制器408、示例参数数据库410和/或更概括而言示例第一知识共享控制器302和/或示例第二知识共享控制器304中的任何一者可由一个或多个模拟或数字电路、逻辑电路、(一个或多个)可编程处理器、(一个或多个)可编程控制器、(一个或多个)图形处理单元(graphics processing unit,GPU)、(一个或多个)数字信号处理器(digital signal processor,DSP)、(一个或多个)专用集成电路(applicationspecific integrated circuit,ASIC)、(一个或多个)可编程逻辑器件(programmablelogic device,PLD)和/或(一个或多个)现场可编程逻辑器件(field programmable logicdevice,FPLD))来实现。当读到本专利的任何装置或系统权利要求覆盖纯软件和/或固件实现方式时,示例数据访问器402、示例函数生成器404、示例数据采样器406、示例NN控制器408、示例参数数据库410中的至少一者在此被明确定义为包括包含该软件和/或固件的非暂态计算机可读存储设备或存储盘,例如存储器、数字多功能盘(digital versatiledisk,DVD)、致密盘(compact disk,CD)、蓝光盘,等等。此外,除了图4中所示的那些以外或者取代图4中所示的那些,图3的示例第一知识共享控制器302和/或示例第二知识共享控制器304可包括一个或多个元件、过程和/或设备,和/或可包括图示的元件、过程和设备的任何者或全部中的多于一者。就本文使用的而言,短语“与……通信”(包括其变体)涵盖了直接通信和/或通过一个或多个中间组件的间接通信,而不要求直接物理(例如,有线)通信和/或不断的通信,而是还包括按周期性间隔、排定的间隔、非周期性间隔和/或一次性事件的选择性通信。
表示用于实现图3的第一知识共享控制器302和/或第二知识共享控制器304的示例硬件逻辑、机器可读指令、硬件实现状态机和/或这些的任何组合的流程图在图10-图12中示出。机器可读指令可以是供计算机处理器和/或处理器电路执行的一个或多个可执行程序或者可执行程序的(一个或多个)部分,所述计算机处理器和/或处理器电路例如是下文联系图13论述的示例处理器平台1300中所示的处理器1312。该程序可体现在存储于诸如CD-ROM、软盘、硬盘驱动器、DVD、蓝光盘或者与处理器1312相关联的存储器之类的非暂态计算机可读存储介质上的软件中,但整个程序和/或其一些部分可替换为由除了处理器1312以外的设备执行和/或体现在固件或专用硬件中。另外,虽然是参考图10-图12中所示的流程图来描述示例程序的,但可替换使用实现示例第一知识共享控制器302和/或示例第二知识共享控制器304的许多其他方法。例如,块的执行顺序可被改变,和/或描述的块中的一些可被改变、消除或组合。额外地或者替换地,任何或所有块可由被构造为执行相应的操作而不执行软件或固件的一个或多个硬件电路(例如,分立和/或集成的模拟和/或数字电路、FPGA、ASIC、比较器、运算放大器(op-amp)、逻辑电路,等等)来实现。处理器电路可分布在不同的网络位置中和/或在一个或多个设备的本地(例如,单个机器中的多核处理器,分布在服务器机架上的多个处理器,等等)。
可以以压缩格式、加密格式、分段格式、编译格式、可执行格式、打包格式等等中的一种或多种格式来存储本文描述的机器可读指令。本文描述的机器可读指令可被存储为可被利用来创建、制造和/或生产机器可执行指令的数据或数据结构(例如,指令的部分、代码、代码的表示,等等)。例如,机器可读指令可被分段并存储在位于网络或者网络集合的相同或不同位置的一个或多个存储设备和/或计算设备(例如,服务器)上(例如,在云中,在边缘设备中,等等)。机器可读指令可要求安装、修改、改编、更新、组合、补充、配置、解密、解压缩、解包、分发、重指派、编译等等中的一个或多个,以便使得它们可被计算设备和/或其他机器直接可读、可解释和/或可执行。例如,机器可读指令可被存储为多个部分,这些部分被单独压缩、加密并存储在分开的计算设备上,其中这些部分当被解密、解压缩和组合时,形成实现可一起形成例如本文所述那种的程序的一个或多个功能的一组可执行指令。
在另一示例中,机器可读指令可被存储在如下状态中:在该状态中,它们可被处理器电路读取,但要求添加库(例如,动态链接库(DLL))、软件开发套件(SDK)、应用编程接口(API)等等以便在特定的计算设备或其他设备上执行这些指令。在另一示例中,在机器可读指令和/或相应的(一个或多个)程序可被全部或部分执行之前,机器可读指令可能需要被配置(例如,存储设置、输入数据、记录网络地址,等等)。从而,在本文中使用的机器可读介质可包括机器可读指令和/或(一个或多个)程序,无论这些机器可读指令和/或(一个或多个)程序在被存储时或以其他方式在休息或在途时的特定格式或状态如何。
本文描述的机器可读指令可以由任何过去、当前或者未来的指令语言、脚本语言、编程语言等等来表示。例如,可利用以下语言中的任何一种来表示机器可读指令:C、C++、Java、C#、Perl、Python、JavaScript、超本文标记语言(HTML)、结构化查询语言(SQL)、Swift,等等。
如上所述,可利用存储在非暂态计算机和/或机器可读介质上的可执行指令(例如,计算机和/或机器可读指令)来实现图10-图12的示例过程,所述介质例如是硬盘驱动器、闪存、只读存储器、致密盘、数字多功能盘、缓存、随机访问存储器、和/或其中信息可被存储任何持续时间(例如,存储较长时间段、永久存储、短暂存储、用于临时缓冲、和/或用于信息的缓存)的任何其他存储设备或存储盘。就本文使用的而言,术语非暂态计算机可读介质被明确定义为包括任何类型的计算机可读存储设备和/或存储盘并且排除传播信号和排除传输介质。
“包括”和“包含”(以及其所有形式和时态)在本文中被用作开端式术语。从而,每当权利要求采用任何形式的“包括”或“包含”(例如,包括、包含、具有,等等)作为序言或者在任何种类的权利要求记载中使用时,要理解,额外的元素、术语等等可存在,而不落在相应权利要求或记载的范围之外。就本文使用的而言,当短语“至少”在例如权利要求的序言中被用作过渡术语时,它是开端的,与术语“包括”和“包含”是开端的方式一样。术语“和/或”当例如被以比如A、B和/或C这样的形式使用时,指的是A、B、C的任何组合或子集,例如(1)A单独,(2)B单独,(3)C单独,(4)A与B,(5)A与C,(6)B与C,以及(7)A与B以及与C。就本文在描述结构、组件、项目、对象和/或事物的上下文中使用的而言,短语“A和B中的至少一者”打算指包括以下各项中的任何一者的实现方式:(1)至少一个A,(2)至少一个B,以及(3)至少一个A和至少一个B。类似地,就本文在描述结构、组件、项目、对象和/或事物的上下文中使用的而言,短语“A或B中的至少一者”打算指包括以下各项中的任何一者的实现方式:(1)至少一个A,(2)至少一个B,以及(3)至少一个A和至少一个B。就本文在描述过程、指令、动作、活动和/或步骤的执行或运行的上下文中使用的而言,短语“A和B中的至少一者”打算指包括以下各项中的任何一者的实现方式:(1)至少一个A,(2)至少一个B,以及(3)至少一个A和至少一个B。类似地,就本文在描述过程、指令、动作、活动和/或步骤的执行或运行的上下文中使用的而言,短语“A或B中的至少一者”打算指包括以下各项中的任何一者的实现方式:(1)至少一个A,(2)至少一个B,以及(3)至少一个A和至少一个B。
就本文使用的而言,单数指代(例如,“一”、“第一”、“第二”,等等)不排除多数。就本文使用的而言,术语“一”实体指的是一个或多个该实体。术语“一”、“一个或多个”和“至少一个”在本文中被可互换地使用。此外,虽然是单独列出的,但多个手段、元素或方法动作可由例如单个单元或处理器来实现。此外,虽然个体特征可被包括在不同的示例或权利要求中,但它们可能可被组合,并且包括在不同的示例或权利要求中并不暗示着特征的组合是不可行的和/或不是有利的。
图10是表示示例机器可读指令1000的流程图,这些指令可被执行来实现图3和/或图4的示例第一知识共享控制器302和/或示例第二知识共享控制器304以促进知识共享。虽然是结合图2的示例第一BNN系统202来描述指令1000的,但可结合包括知识共享控制器的任何类型的神经网络中的任何BNN系统来描述指令1000。
图10的示例机器可读指令开始于块1002,在该块中,示例NN训练102(图1)确定是否接收到了输入数据。例如,NN训练器102确定是否接收到了训练数据(例如,MNIST数据,等等)。如果示例NN训练器102确定没有接收到训练数据(例如,块1002返回的结果是“否”),则指令返回到块1002。如果示例NN训练器102确定接收到了输入数据(例如,块1002返回的结果是“是”),则示例NN训练器102训练(一个或多个)BNN。(块1004)。例如,NN训练器102在第一数据集210上训练第一BNN系统202(图2)。类似地,NN训练器102可在第二数据集212上训练第二BNN系统204(图2)。
示例数据访问器402获得(一个或多个)权重分布,(块1006)。例如,数据访问器402获得第一BNN系统202和第二BNN系统204的权重分布。示例第一知识共享控制器302生成混合权重分布,(块1008)。例如,第一知识共享控制器302实现混合函数来混合第一BNN系统202和第二BNN系统204的第一权重分布。下面联系图11进一步详细描述混合函数。额外地或者替换地,第一知识共享控制器302训练DNN来基于输入的(一个或多个)均值和(一个或多个)方差来生成均值和方差。下面联系图12进一步详细描述DNN。
示例第一知识共享控制器302基于混合权重分布生成额外BNN,(块1010)。例如,示例第一知识共享控制器302基于由数据采样器406(图4)确定的混合权重分布来生成额外BNN。额外地或者替换地,第一知识共享控制器302基于由DNN确定的所生成的均值和方差来生成额外BNN。
图11是表示示例机器可读指令1100的流程图,这些指令可被执行来实现图3和/或图4的示例第一知识共享控制器302和/或示例知识共享控制器304以混合权重分布。示例函数生成器404向类别指派概率,(块1102)。例如,函数生成器404(图4)确定向每个BNN指派均一概率,与每个BNN观察到的类成比例的概率,等等。
示例数据采样器406(图4)对BNN的(一个或多个)权重分布进行采样,(块1104)。例如,数据采样器406生成0和1之间的随机值,并且对与该随机值相对应的BNN进行采样。示例数据采样器406基于采样的(一个或多个)权重分布来生成额外权重分布的参数,(块1106)。控制返回到图10的指令1000的块1010。
图12是表示可被执行来实现图4的示例NN控制器408以训练DNN用于知识共享的示例机器可读指令1200的流程图。示例NN控制器408训练DNN,(块1202)。例如,NN控制器408使用遗传算法训练DNN。示例NN控制器408获得(一个或多个)均值和(一个或多个)方差。(块1204)。例如,NN控制器408获得BNN的集成的均值和方差。示例NN控制器408生成额外的均值和方差,(块1206)。例如,NN控制器408将BNN的集成的均值和方差输入到经训练的DNN中。DNN生成额外的均值和方差。控制返回到图10的指令1000的块1010。
图13是被构造来执行图10-图12的指令以实现图3的示例第一知识共享控制器302和/或示例第二知识共享控制器304的示例处理器平台1300的框图。处理器平台1300可例如是服务器、个人计算机、工作站、自学习机器(例如,神经网络)、移动设备(例如,蜂窝电话、智能电话、诸如iPadTM之类的平板设备)、个人数字助理(PDA)、互联网家电、DVD播放器、CD播放器、数字视频记录器、蓝光播放器、游戏机、个人视频记录器、机顶盒、耳机或其他可穿戴设备、或者任何其他类型的计算设备。
图示示例的处理器平台1300包括处理器1312。图示示例的处理器1312是硬件。例如,处理器1312可由来自任何期望的家族或制造商的一个或多个集成电路、逻辑电路、微处理器、GPU、DSP或者控制器来实现。硬件处理器可以是基于半导体(例如,基于硅)的设备。在这个示例中,处理器实现了示例数据访问器402、示例函数生成器404、示例数据采样器406、以及示例NN控制器408。
图示示例的处理器1312包括本地存储器1313(例如,缓存)。图示示例的处理器1312经由总线1318与包括易失性存储器1314和非易失性存储器1316的主存储器进行通信。易失性存储器1314可由同步动态随机访问存储器(Synchronous Dynamic Random AccessMemory,SDRAM)、动态随机访问存储器(Dynamic Random Access Memory,DRAM)、动态随机访问存储器(Dynamic Random Access Memory,)和/或任何其他类型的随机访问存储器设备来实现。非易失性存储器1316可由闪存和/或任何其他期望类型的存储器设备来实现。对主存储器1314、1316的访问受存储器控制器的控制。
图示示例的处理器平台1300还包括接口电路1320。接口电路1320可由任何类型的接口标准来实现,例如以太网接口、通用串行总线(universal serial bus,USB)、接口、近场通信(near field communication,NFC)接口和/或PCI快速接口。
在图示示例中,一个或多个输入设备1322连接到接口电路1320。(一个或多个)输入设备1322允许用户向处理器1312中输入数据和/或命令。(一个或多个)输入设备可由例如音频传感器、麦克风、相机(静态或视频)、键盘、按钮、鼠标、触摸屏、触控板、轨迹球、isopoint和/或语音识别系统来实现。
一个或多个输出设备1324也连接到图示示例的接口电路1320。输出设备1024可例如由显示设备(例如,发光二极管(light emitting diode,LED)、有机发光二极管(organiclight emitting diode,OLED)、液晶显示器(liquid crystal display,LCD)、阴极射线管显示器(cathode ray tube,CRT)、就地切换(in-place switching,IPS)显示器、触摸屏,等等)、触觉输出设备、打印机和/或扬声器来实现。图示示例的接口电路1320从而通常包括图形驱动器卡、图形驱动器芯片、和/或图形驱动器处理器。
图示示例的接口电路1320还包括通信设备,例如发送器、接收器、收发器、调制解调器、住宅网关、无线接入点、和/或网络接口,来促进经由网络1326与外部机器(例如,任何种类的计算设备)的数据交换。通信可经由例如以太网连接、数字订户线(digitalsubscriber line,DSL)连接、电话线连接、同轴线缆系统、卫星系统、直线对传式无线系统、蜂窝电话系统等等。
图示示例的处理器平台1300还包括用于存储软件和/或数据的一个或多个大容量存储设备1328。这种大容量存储设备1328的示例包括软盘驱动器、硬盘驱动器、致密盘驱动器、蓝光盘驱动器、独立盘冗余阵列(redundant array of independent disks,RAID)系统、以及数字多功能盘(digital versatile disk,DVD)驱动器。
图10-12的机器可执行指令1332可被存储在大容量存储设备1328中、易失性存储器1314中、非易失性存储器1316中和/或诸如CD或DVD之类的可移除非暂态计算机可读存储介质上。
在图14中图示了图示出用于向第三方分发诸如图13的示例计算机可读指令1332之类的软件的示例软件分发平台1405的框图。示例软件分发平台1405可由能够存储软件并且将其传输到其他计算设备的任何计算机服务器、数据设施、云服务等等来实现。第三方可以是拥有和/或操作该软件分发平台的实体的客户。例如,拥有和/或操作软件分发平台的实体可以是软件(例如图13的示例计算机可读指令1332)的开发者、销售者和/或许可人。第三方可以是购买和/或许可该软件以供使用和/或再销售和/或分许可的消费者、用户、零售商、OEM,等等。在图示示例中,软件分发平台1405包括一个或多个服务器和一个或多个存储设备。存储设备存储计算机可读指令1332,这些指令可对应于如上所述的图10-12的示例计算机可读指令1332。示例软件分发平台1405的一个或多个服务器与网络1410通信,该网络可对应于互联网和/或上述的示例网络1336中的任何一者中的任何一个或多个。在一些示例中,作为商业交易的一部分,一个或多个服务器响应将软件传输给请求方的请求。对软件的交付、销售和/或许可的支付可由软件分发平台的一个或多个服务器处理和/或经由第三方支付实体来处理。这些服务器使得购买者和/或许可人能够从软件分发平台1405下载计算机可读指令1332。例如,可与图10的示例计算机可读指令1000相对应的软件可被下载到示例处理器平台1300,该平台要执行计算机可读指令1332以实现示例第一知识共享控制器302和/或示例第二知识共享控制器304。在一些示例中,软件分发平台1405的一个或多个服务器定期提供、传输和/或强制更新软件(例如,图13的示例计算机可读指令1332),以确保改进、补丁、更新等等被分发并且在终端用户设备处被应用于软件。
从上述内容将会明白,已公开了促进神经网络之间的高效知识共享的示例方法、装置和制品。例如,知识共享控制器获得在不完整数据集上训练的贝叶斯神经网络的权重分布和/或权重分布的均值和方差。示例知识共享控制器混合所获得的权重分布和/或均值和方差以生成额外的贝叶斯神经网络。与初始训练的贝叶斯神经网络相比,额外的贝叶斯神经网络与推断期间的相对更高的准确度相关联。公开的方法、装置和制品通过减少存储器(例如,先前训练数据不被存储)和计算时间(例如,不在完整数据集上重新训练额外BNN)而提高了使用计算设备的效率。公开的方法、装置和制品因此针对的是计算机的功能的一项或多项改进。
本文公开了用于促进神经网络之间的高效知识共享的示例方法、装置、系统和制品。进一步示例及其组合包括以下的:
示例1包括一种促进神经网络之间的高效知识共享的装置,该装置包括训练器,用于在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布,并且在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集,以及知识共享控制器,用于基于所述第一权重分布和所述第二权重分布来生成第三BNN。
示例2包括如示例1所述的装置,其中所述训练数据的第一子集和所述训练数据的第二子集是互斥的。
示例3包括如示例1所述的装置,其中所述知识共享控制器是与所述第一BNN相关联的第一知识共享控制器,并且所述装置还包括与所述第二BNN相关联的第二知识共享控制器。
示例4包括如示例3所述的装置,其中所述第一知识共享控制器将所述第二权重分布与所述第一权重分布混合,并且所述第二知识共享控制器将所述第一权重分布与所述第二权重分布混合。
示例5包括如示例3所述的装置,其中所述第一知识共享控制器和所述第二知识共享控制器是高斯混合模型。
示例6包括如示例1所述的装置,其中所述知识共享控制器是利用确定性神经网络来实现的。
示例7包括如示例6所述的装置,其中所述知识共享控制器访问与所述第一BNN相关联的第一均值和第一方差,以及与所述第二BNN相关联的第二均值和第二方差。
示例8包括如示例7所述的装置,其中所述知识共享控制器生成与所述第三BNN相关联的第三均值和第三方差。
示例9包括如示例8所述的装置,其中所述第三BNN与第三权重分布相关联,所述第三权重分布具有被表示为高斯分布的权重。
示例10包括如示例6所述的装置,其中所述第一权重分布和所述第二权重分布不变化。
示例11包括至少一个非暂态计算机可读介质,包括指令,所述指令当被执行时,使得至少一个处理器至少在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布,在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集,并且基于所述第一权重分布和所述第二权重分布来生成第三BNN。
示例12包括如示例11所述的至少一个非暂态计算机可读介质,其中所述训练数据的第一子集和所述训练数据的第二子集是互斥的。
示例13包括如示例11所述的至少一个非暂态计算机可读介质,其中所述至少一个处理器是与所述第一BNN相关联的第一处理器,并且还包括与所述第二BNN相关联的第二处理器。
示例14包括如示例13所述的至少一个非暂态计算机可读介质,其中所述指令当被执行时,使得所述第一处理器将所述第二权重分布与所述第一权重分布混合,并且所述第二处理器将所述第一权重分布与所述第二权重分布混合。
示例15包括如示例13所述的至少一个非暂态计算机可读介质,其中所述第一处理器和所述第二处理器是利用高斯混合模型来实现的。
示例16包括如示例11所述的至少一个非暂态计算机可读介质,其中所述至少一个处理器是利用确定性神经网络来实现的。
示例17包括如示例16所述的至少一个非暂态计算机可读介质,其中所述指令当被执行时,使得所述至少一个处理器访问与所述第一BNN相关联的第一均值和第一方差,以及与所述第二BNN相关联的第二均值和第二方差。
示例18包括如示例17所述的至少一个非暂态计算机可读介质,其中所述指令当被执行时,使得所述至少一个处理器生成与所述第三BNN相关联的第三均值和第三方差。
示例19包括如示例18所述的至少一个非暂态计算机可读介质,其中所述第三BNN与第三权重分布相关联,所述第三权重分布具有被表示为高斯分布的权重。
示例20包括如示例16所述的至少一个非暂态计算机可读介质,其中所述第一权重分布和所述第二权重分布不变化。
示例21包括一种促进神经网络之间的高效知识共享的装置,所述装置包括至少一个存储设备,以及至少一个处理器,用于在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布,在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集,并且基于所述第一权重分布和所述第二权重分布来生成第三BNN。
示例22包括如示例21所述的装置,其中所述训练数据的第一子集和所述训练数据的第二子集是互斥的。
示例23包括如示例21所述的装置,其中所述至少一个处理器是与所述第一BNN相关联的第一处理器,并且还包括与所述第二BNN相关联的第二处理器。
示例24包括如示例23所述的装置,其中所述第一处理器将所述第二权重分布与所述第一权重分布混合,并且所述第二处理器将所述第一权重分布与所述第二权重分布混合。
示例25包括如示例23所述的装置,其中所述第一处理器和所述第二处理器是高斯混合模型。
示例26包括如示例21所述的装置,其中所述至少一个处理器是利用确定性神经网络来实现的。
示例27包括如示例26所述的装置,其中所述至少一个处理器访问与所述第一BNN相关联的第一均值和第一方差,以及与所述第二BNN相关联的第二均值和第二方差。
示例28包括如示例27所述的装置,其中所述至少一个处理器生成与所述第三BNN相关联的第三均值和第三方差。
示例29包括如示例28所述的装置,其中所述第三BNN与第三权重分布相关联,所述第三权重分布具有被表示为高斯分布的权重。
示例30包括如示例26所述的装置,其中所述第一权重分布和所述第二权重分布不变化。
示例31包括一种促进神经网络之间的高效知识共享的方法,该方法包括在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布,在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集,并且基于所述第一权重分布和所述第二权重分布来生成第三BNN。
示例32包括如示例31所述的方法,其中所述训练数据的第一子集和所述训练数据的第二子集是互斥的。
示例33包括如示例31所述的方法,还包括将所述第二权重分布与所述第一权重分布混合,并且将所述第一权重分布与所述第二权重分布混合。
示例34包括如示例33所述的方法,其中所述第三BNN是利用高斯混合模型来生成的。
示例35包括如示例31所述的方法,其中所述第三BNN是利用确定性神经网络来生成的。
示例36包括如示例35所述的方法,还包括访问与所述第一BNN相关联的第一均值和第一方差,以及与所述第二BNN相关联的第二均值和第二方差。
示例37包括如示例36所述的方法,还包括生成与所述第三BNN相关联的第三均值和第三方差。
示例38包括如示例37所述的方法,其中所述第三BNN与第三权重分布相关联,所述第三权重分布具有被表示为高斯分布的权重。
示例39包括如示例35所述的方法,其中所述第一权重分布和所述第二权重分布不变化。
示例40包括一种促进神经网络之间的高效知识共享的装置,包括用于训练的装置,用于在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布,并且在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集,以及用于知识共享的装置,用于基于所述第一权重分布和所述第二权重分布来生成第三BNN。
示例41包括如示例40所述的装置,其中所述训练数据的第一子集和所述训练数据的第二子集是互斥的。
示例42包括如示例40所述的装置,其中所述用于知识共享的装置是与所述第一BNN相关联的用于知识共享的第一装置,并且所述装置还包括与所述第二BNN相关联的用于知识共享的第二装置。
示例43包括如示例42所述的装置,其中所述用于知识共享的第一装置将所述第二权重分布与所述第一权重分布混合,并且所述用于知识共享的第二装置将所述第一权重分布与所述第二权重分布混合。
示例44包括如示例42所述的装置,其中所述用于知识共享的第一装置和所述用于知识共享的第二装置是高斯混合模型。
示例45包括如示例40所述的装置,其中所述用于知识共享的装置是利用确定性神经网络来实现的。
示例46包括如示例45所述的装置,其中所述用于知识共享的装置访问与所述第一BNN相关联的第一均值和第一方差,以及与所述第二BNN相关联的第二均值和第二方差。
示例47包括如示例46所述的装置,其中所述用于知识共享的装置生成与所述第三BNN相关联的第三均值和第三方差。
示例48包括如示例47所述的装置,其中所述第三BNN与第三权重分布相关联,所述第三权重分布具有被表示为高斯分布的权重。
示例49包括如示例45所述的装置,其中所述第一权重分布和所述第二权重分布不变化。
虽然本文公开了某些示例方法、装置和制品,但本专利的覆盖范围不限于此。相反,本专利覆盖了公平地落在本专利的权利要求的范围内的所有方法、装置和制品。
特此通过引用将所附权利要求并入到这个“具体实施方式”部分中,其中每个权利要求独立作为本公开的一个单独实施例。
Claims (25)
1.一种促进神经网络之间的知识共享的方法,该方法包括:
在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布;
在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集;以及
基于所述第一权重分布和所述第二权重分布来生成第三BNN。
2.如权利要求1所述的方法,其中所述训练数据的第一子集和所述训练数据的第二子集是互斥的。
3.如权利要求1所述的方法,还包括:
将所述第二权重分布与所述第一权重分布混合;并且
将所述第一权重分布与所述第二权重分布混合。
4.如权利要求3所述的方法,其中所述第三BNN是利用高斯混合模型来生成的。
5.如权利要求1所述的方法,其中所述第三BNN是利用确定性神经网络来生成的。
6.如权利要求5所述的方法,还包括:访问与所述第一BNN相关联的第一均值和第一方差,以及与所述第二BNN相关联的第二均值和第二方差。
7.如权利要求5或6中任一项所述的方法,还包括:生成与所述第三BNN相关联的第三均值和第三方差。
8.如权利要求7所述的方法,其中所述第三BNN与第三权重分布相关联,所述第三权重分布具有被表示为高斯分布的权重。
9.至少一个计算机可读介质,包括指令,所述指令当被执行时,使得至少一个处理器至少:
在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布;
在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集;并且
基于所述第一权重分布和所述第二权重分布来生成第三BNN。
10.如权利要求9所述的至少一个计算机可读介质,其中所述训练数据的第一子集和所述训练数据的第二子集是互斥的。
11.如权利要求9所述的至少一个计算机可读介质,其中所述至少一个处理器是与所述第一BNN相关联的第一处理器,并且还包括与所述第二BNN相关联的第二处理器。
12.如权利要求11所述的至少一个计算机可读介质,其中所述指令当被执行时,使得:所述第一处理器将所述第二权重分布与所述第一权重分布混合,并且所述第二处理器将所述第一权重分布与所述第二权重分布混合。
13.如权利要求11所述的至少一个计算机可读介质,其中所述第一处理器和所述第二处理器是利用高斯混合模型来实现的。
14.如权利要求9所述的至少一个计算机可读介质,其中所述至少一个处理器是利用确定性神经网络来实现的。
15.如权利要求14所述的至少一个计算机可读介质,其中所述指令当被执行时,使得所述至少一个处理器:访问与所述第一BNN相关联的第一均值和第一方差,以及与所述第二BNN相关联的第二均值和第二方差。
16.如权利要求14或15中任一项所述的至少一个计算机可读介质,其中所述指令当被执行时,使得所述至少一个处理器:生成与所述第三BNN相关联的第三均值和第三方差。
17.如权利要求16所述的至少一个计算机可读介质,其中所述第三BNN与第三权重分布相关联,所述第三权重分布具有被表示为高斯分布的权重。
18.一种促进神经网络之间的知识共享的装置,包括:
用于训练的装置,用于:
在第一计算系统处在训练数据的第一子集上训练第一贝叶斯神经网络(BNN)以生成第一权重分布;并且
在第二计算系统处在所述训练数据的第二子集上训练第二BNN以生成第二权重分布,所述训练数据的第二子集不同于所述训练数据的第一子集;以及
用于知识共享的装置,用于基于所述第一权重分布和所述第二权重分布来生成第三BNN。
19.如权利要求18所述的装置,其中所述训练数据的第一子集和所述训练数据的第二子集是互斥的。
20.如权利要求18所述的装置,其中所述用于知识共享的装置是与所述第一BNN相关联的用于知识共享的第一装置,并且还包括与所述第二BNN相关联的用于知识共享的第二装置。
21.如权利要求20所述的装置,其中所述用于知识共享的第一装置将所述第二权重分布与所述第一权重分布混合,并且所述用于知识共享的第二装置将所述第一权重分布与所述第二权重分布混合。
22.如权利要求20所述的装置,其中所述用于知识共享的第一装置和所述用于知识共享的第二装置是高斯混合模型。
23.如权利要求18所述的装置,其中所述用于知识共享的装置是利用确定性神经网络来实现的。
24.如权利要求23所述的装置,其中所述用于知识共享的装置访问与所述第一BNN相关联的第一均值和第一方差,以及与所述第二BNN相关联的第二均值和第二方差。
25.如权利要求23或24中任一项所述的装置,其中所述用于知识共享的装置生成与所述第三BNN相关联的第三均值和第三方差。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/129,789 US20210110264A1 (en) | 2020-12-21 | 2020-12-21 | Methods and apparatus to facilitate efficient knowledge sharing among neural networks |
US17/129,789 | 2020-12-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114648093A true CN114648093A (zh) | 2022-06-21 |
Family
ID=75382917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111251870.2A Pending CN114648093A (zh) | 2020-12-21 | 2021-10-26 | 促进神经网络之间的高效知识共享的方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210110264A1 (zh) |
CN (1) | CN114648093A (zh) |
TW (1) | TW202226070A (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200129457A (ko) * | 2019-05-08 | 2020-11-18 | 삼성전자주식회사 | 학습을 수행하는 뉴럴 네트워크 시스템, 그것의 학습 방법 및 뉴럴 네트워크 프로세서의 전이 학습 방법 |
CN113609785B (zh) * | 2021-08-19 | 2023-05-09 | 成都数融科技有限公司 | 基于贝叶斯优化的联邦学习超参数选择系统及方法 |
TWI802418B (zh) * | 2022-01-12 | 2023-05-11 | 旺宏電子股份有限公司 | 線上持續學習方法及系統 |
CN114882185B (zh) * | 2022-05-06 | 2024-05-31 | 天津大学 | 基于混合密度神经网络的断层不确定性形态建模方法 |
TWI823488B (zh) * | 2022-07-22 | 2023-11-21 | 國立中央大學 | 用於深度神經網路之邊緣優化增量學習方法與電腦系統 |
TWI813419B (zh) * | 2022-08-18 | 2023-08-21 | 瑞昱半導體股份有限公司 | 神經網路系統以及神經網路系統運行方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0209780D0 (en) * | 2002-04-29 | 2002-06-05 | Neural Technologies Ltd | Method of encoding data for decoding data from and constraining a neural network |
US20090276385A1 (en) * | 2008-04-30 | 2009-11-05 | Stanley Hill | Artificial-Neural-Networks Training Artificial-Neural-Networks |
US20160034811A1 (en) * | 2014-07-31 | 2016-02-04 | Apple Inc. | Efficient generation of complementary acoustic models for performing automatic speech recognition system combination |
US20190012592A1 (en) * | 2017-07-07 | 2019-01-10 | Pointr Data Inc. | Secure federated neural networks |
GB201711184D0 (en) * | 2017-07-12 | 2017-08-23 | Ibm | Efficiently populating a phase diagram for modeling of multiple substances |
US11681906B2 (en) * | 2020-08-28 | 2023-06-20 | Micron Technology, Inc. | Bayesian network in memory |
US20210034947A1 (en) * | 2020-10-20 | 2021-02-04 | Intel Corporation | Bayesian neural network and methods and apparatus to operate the same |
-
2020
- 2020-12-21 US US17/129,789 patent/US20210110264A1/en active Pending
-
2021
- 2021-09-15 TW TW110134399A patent/TW202226070A/zh unknown
- 2021-10-26 CN CN202111251870.2A patent/CN114648093A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20210110264A1 (en) | 2021-04-15 |
TW202226070A (zh) | 2022-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114648093A (zh) | 促进神经网络之间的高效知识共享的方法和装置 | |
Skolik et al. | Layerwise learning for quantum neural networks | |
US20200401891A1 (en) | Methods and apparatus for hardware-aware machine learning model training | |
US20210117792A1 (en) | Methods and apparatus to facilitate continuous learning | |
US11562245B2 (en) | Neural network model generation and distribution with client feedback | |
US20210390152A1 (en) | Method, system, and non-transitory computer-readable record medium for providing multiple models of federated learning using personalization | |
US20220092424A1 (en) | Methods, systems, apparatus and articles of manufacture to apply a regularization loss in machine learning models | |
Contardo et al. | Sequential cost-sensitive feature acquisition | |
EP4020323A1 (en) | Methods, apparatus, and articles of manufacture for interactive image segmentation | |
WO2022040963A1 (en) | Methods and apparatus to dynamically normalize data in neural networks | |
US20200327392A1 (en) | Methods, systems, articles of manufacture, and apparatus to optimize layers of a machine learning model for a target hardware platform | |
CN116910373A (zh) | 房源推荐方法、装置、电子设备及存储介质 | |
EP4020330A1 (en) | Methods, apparatus, and articles of manufacture to improve automated machine learning | |
WO2023097428A1 (en) | Methods and apparatus to perform parallel double-batched self-distillation in resource-constrained image recognition applications | |
US20220391668A1 (en) | Methods and apparatus to iteratively search for an artificial intelligence-based architecture | |
Sunitha et al. | Political optimizer-based automated machine learning for skin lesion data | |
US20220284353A1 (en) | Methods and apparatus to train a machine learning model | |
US11640564B2 (en) | Methods and apparatus for machine learning engine optimization | |
US20220319162A1 (en) | Bayesian compute unit with reconfigurable sampler and methods and apparatus to operate the same | |
US20230359894A1 (en) | Methods, apparatus, and articles of manufacture to re-parameterize multiple head networks of an artificial intelligence model | |
US20230237384A1 (en) | Methods and apparatus to implement a random forest | |
US20220012570A1 (en) | Bayesian compute unit with reconfigurable sampler and methods and apparatus to operate the same | |
Singh | Hybrid Machine Learning Approach for Predictive Modeling of Complex Systems | |
US20240163344A1 (en) | Methods and apparatus to perform computer-based community detection in a network | |
CN118051780B (zh) | 智能体的训练方法、交互方法及相应系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |