CN114548395A - 神经网络的能量高效和存储高效的训练 - Google Patents
神经网络的能量高效和存储高效的训练 Download PDFInfo
- Publication number
- CN114548395A CN114548395A CN202111411233.7A CN202111411233A CN114548395A CN 114548395 A CN114548395 A CN 114548395A CN 202111411233 A CN202111411233 A CN 202111411233A CN 114548395 A CN114548395 A CN 114548395A
- Authority
- CN
- China
- Prior art keywords
- parameters
- knn
- parameter
- trained
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 72
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000006870 function Effects 0.000 claims abstract description 23
- 238000011156 evaluation Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000005457 optimization Methods 0.000 claims abstract description 7
- 230000006399 behavior Effects 0.000 claims abstract description 3
- 230000000717 retained effect Effects 0.000 claims abstract description 3
- 210000002569 neuron Anatomy 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 8
- 230000006835 compression Effects 0.000 claims description 6
- 238000007906 compression Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 238000003908 quality control method Methods 0.000 claims description 5
- 230000003213 activating effect Effects 0.000 claims description 3
- 238000002059 diagnostic imaging Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims 2
- 238000013138 pruning Methods 0.000 description 10
- 238000001994 activation Methods 0.000 description 7
- 230000015556 catabolic process Effects 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000036992 cognitive tasks Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
用于训练自身行为通过可训练参数被表征的人工神经网络KNN的方法,包括:对参数初始化;提供用额定输出标记的训练数据,其中KNN应将训练数据分别映射到额定输出;训练数据被输送给KNN并由KNN映射到输出;根据预先给定的成本函数评价输出与学习输出的一致性;根据预先给定的标准,从参数集合中至少选择待训练的参数的第一子集和待保持的参数的第二子集;以如下目标来优化待训练的参数:通过KNN对训练数据的进一步处理预计导致通过成本函数的更好评价;分别将待保持的参数保留在其初始化值上或在优化时已经获得的值上。
Description
技术领域
本发明涉及神经网络的训练,所述神经网络例如可以被用作图像分类器。
背景技术
人工神经网络KNN借助于处理链将输入(诸如图像)映射到对于相应应用相关的输出,所述处理链通过大量参数被表征并且例如能够以层的形式被组织。例如,图像分类器对于所输入的图像提供:到预先给定的分类的一个或多个类别的分配作为输出。KNN被训练,其方式是训练数据被输送给所述KNN,并且处理链的参数被优化为使得所提供的输出尽可能好地与属于相应训练数据的、事先已知的额定输出协调一致。
所述训练典型地是非常计算耗费的并且与此相应地消耗很多能量。为了减少计算耗费,以名称“剪枝(Pruning)”已知的是将参数的一部分设置为零并且不对其进行进一步训练。同时,这从而也抑制“过拟合(Overfitting)”的趋势,所述“过拟合”对应于“背诵”训练数据,而不是理解在训练数据中包含的知识。此外,从DE 10 2019 205 079 A1中已知:在KNN的运行时间(推理(Inferenz))对各个计算单元进行去激活,以便节省能量和热生成。
发明内容
在本发明的范围中,开发了一种用于训练人工神经网络KNN的方法。该KNN的行为通过可训练参数表征。例如,可训练参数可以是权重,以所述权重对输送给KNN的神经元或其他处理单元的输入进行相加用于激活所述神经元或其他处理单元。
在训练开始时,参数被初始化。为此可以使用任意值,诸如随机或伪随机值。重要的仅仅是:所述值不同于零,以便首先(zunächst)使在神经元或其他处理单元之间的所有连接至少以某种方式是激活的。
为了训练,提供训练数据,所述训练数据是用额定输出标记的,KNN应该将训练数据分别映射到所述额定输出。将这些训练数据输送给KNN并且由KNN映射到输出。根据预先给定的成本函数(“损失函数”)评价输出与学习输出(Lern-Ausgabe)的一致性。
根据预先给定的标准(Kriterium),从参数的集合中至少选择待训练的参数的第一子集和待保持的参数的第二子集。待训练的参数以如下目标而被优化:通过所述KNN对训练数据的进一步处理预计导致通过成本函数的更好评价。分别使待保持的参数保留(belassen auf)在其初始化值或在优化时已经获得的值上。
尤其是例如可以在开始训练之前对一方面待训练的参数和另一方面待保持的参数进行选择。但是,也可以例如在训练期间才首次进行该选择,或者根据以前的训练进程而改变该选择。
如果例如在训练期间证实特定参数对通过成本函数进行的评价几乎没有影响,则可以将该参数从待训练的参数的集合转移(überführen)到待保持的参数的集合中。于是,所述参数保持在其当前值并且不再被改变。
反之,例如在训练期间可能证实:因为没有足够的参数被训练,所以利用成本函数测量的训练进度停滞。于是可以将更多的参数从待保持的参数的集合转移到待训练的参数的集合中。
因此在一种特别有利的扩展方案中,响应于KNN的根据所述成本函数测量的训练进度满足预先给定的标准,将至少一个参数从待保持的参数的集合转移到待训练的参数的集合中。预先给定的标准尤其是例如可以包含:在训练步骤期间和/或在训练步骤序列期间成本函数的绝对值和/或以数值方式的(betragsmäßig)变化保持在预先给定的阈值以下。
对于被保持的参数,不再为了更新、诸如为了对于各个参数具体变化的成本函数的值或梯度的反向传播(Rückpropagation)而产生耗费。就此而论,就像是在通过迄今为止的“剪枝”而对参数置零(Nullsetzen)的情况下那样节省了计算时间和能量耗费。然而,与“剪枝”不同地,神经元或其他处理单元之间的连接并未完全被放弃,使得较少地为了减少计算耗费而牺牲掉KNN的灵活性和表达能力(“可表达性(Expressiveness)”)。
如果在开始训练之后才决定保持特定的参数,则KNN至少在一定程度上已经被设置为已经通过开始时的初始化和可能通过迄今为止的训练所设定(festlegen)的参数的值。在这种情形下,仅仅保持参数是比置零要小得多的干预。与此相应地,通过保持参数而被引入到KNN的输出中的误差按趋势(tendenziell)要小于通过对参数置零而引入的误差。
结果,因此可以基于以下预给定:仅应对具体KNN的参数的特定部分进行训练,通过保持剩余参数而比在“剪枝”范畴内利用将这些剩余参数置零获得更好的训练结果。例如,可以借助于如下测试数据来测量训练结果的质量,所述测试数据在训练期间未曾被使用但是针对自身而言像是针对训练数据那样的所属的额定输出是已知的。KNN越好地将测试数据映射到额定输出,训练结果就越好。
用于选择待训练的参数的预先给定的标准尤其是例如可以包含参数的相关性评价(Relevanzbewertung)。当训练尚未开始时这种相关性评价就已经可供使用:例如至少一个参数的相关性评价可以包含:在至少一个通过训练数据预先给定的点处在激活所述参数之后成本函数的偏导数(partielle Ableitung)。因此,例如可以评估:如果与相应的参数相乘的激活从值1开始被改变,则由成本函数对于KNN针对特定的训练数据所提供的输出所进行的评价如何发生变化。 与对自身而言所述变化小的参数的训练相比,对自身而言所述变化大的参数的训练预计会更强地对训练结果产生影响。
在此情况下,在激活之后成本函数的所述偏导数与在优化期间利用梯度下降法计算的相应参数之后的成本函数的梯度不是意义相同的。
以这种方式确定的参数相关性评价将取决于如下训练数据,KNN基于所述训练数据来确定所述输出,然后又利用所述输出评估成本函数。如果KNN例如被构造为图像分类器,并且基于显示交通标志的训练图像确定相关性评价,则所确定的参数相关性评价尤其是将涉及针对分类交通标志而言的相关性。而相反,如果例如基于来自产品的光学质量控制的训练图像确定该相关性评价,则该相关性评价将尤其是涉及恰好用于该质量控制的相关性。根据应用而定,总体上可用的参数的完全不同的子集可能是特别有关的,这在一定程度上类似于在人脑中不同大脑区域负责不同的认知任务。
现在,参数的无论如何还是被提供的相关性评价例如使得能够选择预先给定数量(“前N个(Top-N)”)的最相关的参数作为待训练的参数。可替代地或也与之相组合地,可以选择自身的相关性评价比预先给定的阈值更好的参数作为待训练的参数。如果相关性评价不仅相对彼此来评价所述参数,而是使该评价具有在绝对尺度上的意义,则这尤其是有利的。
如先前所阐述的那样,也可以在训练期间设定或事后改变总体可用的参数到待训练的参数和待保持的参数的分配。因此,在另一有利的扩展方案中,针对至少一个参数的相关性评价考虑该可训练参数在优化期间已经历的变化的历史记录(Vorgeschichte)。
在另一有利的扩展方案中,用于选择待训练的参数的预先给定的标准包含:作为待训练的参数而选择根据预先给定的时间预算和/或硬件资源所确定的数量的参数。这尤其是例如可以以如下方式与相关性评价组合:作为待训练的参数选择与所确定的数量相应的“前N个”最相关的参数。然而,也可以在不考虑相关性的情况下根据预算选择待训练的参数,例如作为从总体可供使用的参数中进行的随机选择。
在另一特别有利的扩展方案中,从如下权重中选择待保持的参数,其中以所述权重对输送给所述KNN的神经元或其他处理单元的输入进行相加用于激活所述神经元或其他处理单元。而相反地,选择利用所述激活而加性地结算的偏差值(Bias-Wert)作为待训练的参数。偏差值的数量要比权重的数量小出多倍。同时,保持被应用于由神经元或处理单元的多个输入组成的加权总和的偏差值与保持用于形成所述加权总和的权重相比而言更强烈地对KNN的输出产生影响。
保持参数本身与在“剪枝”时置零类似地节省了用于更新这些参数的计算时间和能量耗费。同时,如在“剪枝”时那样,减少对于训练数据“过拟合”的趋势。如先前所阐述的那样,与“剪枝”相比的主要收益在于经改善的训练结果。这种改善首先利用所保持的不同于零的参数占用存储空间来换取。
在另一特别有利的扩展方案中,这种存储耗费被剧烈减少,其方式是参数利用来自于由确定性算法基于起始配置所产生的数列(Zahlenfolge)中的值被初始化。于是,为了以压缩方式存储所有被保持的参数而仅必须存储表征确定性算法的说明以及起始配置。
从而,完成训练的KNN例如也可以以强烈压缩的形式通过网络被输送。在许多应用中,对KNN进行训练的实体与稍后按规定使用KNN的实体不同。因此,例如,至少部分自动驾驶的车辆的购买者不想先训练该车辆而是想立即使用所述车辆。因为智能电话的计算效率以及电池容量对于训练均是不足够的,所以KNN在智能电话上的大部分应用程序也指示出:所述KNN是已经训练完成的。在智能电话应用程序的示例中,KNN必须要么与应用程序一起被加载到智能电话上要么事后被加载到智能电话上。在所述的强烈压缩的形式下,这特别快速地并且以小的数据量消耗而实现。
KNN的越多参数在训练期间被保持,存储器节省就越大。例如可以彻底保持KNN的99%或更多的权重,而训练结果不显著受害。
从中提取用于对参数进行初始化的值的数列尤其是可以例如是伪随机数列。所述初始化于是基本上与利用随机值进行的初始化具有相同的效果。然而当随机值恰好具有最大熵并且不能被压缩的时候,在确定性算法的起始配置中则可以压缩任意长度的伪随机数序列。
因此,在一种特别有利的扩展方案中,产生KNN的压缩件(Komprimat),所述压缩件至少包括:
•表征所述KNN的架构的说明;
•表征所述确定性算法的说明;
•用于所述确定性算法的起始配置;和
•所述待训练的参数的完成训练的值。
在一种特别有利的扩展方案中,选择被构造为图像分类器的KNN,所述图像分类器将图像映射到对预先给定的分类的一个或多个类别的分配。恰好在该KNN的这种应用情况下,可以在训练期间保持参数的特别大的部分,而所述分类的在结束训练之后实现的精度并不显著受害。
本发明还提供另一方法。在该方法的范畴内,首先利用先前描述的方法对人工神经网络KNN进行训练。随后将已经利用至少一个传感器记录的测量数据输送给KNN。测量数据尤其是可以例如是图像数据、视频数据、雷达数据、激光雷达数据或超声数据。
由KKN将测量数据映射到输出。根据如此获得的输出生成操控信号。利用所述操控信号操控车辆、对象识别系统、用于对产品进行质量控制的系统和/或用于医学成像的系统。
利用先前描述的方法进行训练在此上下文中引起:可以使KNN能够更快速地根据测量数据产生有意义的输出,使得最终生成操控信号,分别被操控的技术系统以对于以感测方式所检测的情形而言适当的方式对所述操控信号作出反应。一方面,节省计算耗费,使得训练总体上更快速地运行。另一方面,完成训练的KNN可以更快速地从对所述KNN进行了训练的实体被转移(transportieren)到运行待操控的技术系统并且为此需要KNN的输出的实体。
先前描述的方法尤其是可以例如是以计算机实现的并且因此以软件来体现。因此,本发明还涉及一种具有机器可读指令的计算机程序,当所述机器可读指令在一个或多个计算机上被执行时,所述机器可读指令促使所述一个或多个计算机执行所描述的方法之一。在该意义上说,同样能够执行机器可读指令的用于车辆的控制设备和用于技术设备的嵌入式系统也应被视为计算机。
本发明还涉及具有计算机程序的机器可读数据载体和/或下载产品。下载产品是可以通过数据网络传输的、即可以由数据网络的用户下载的数字产品,所述数字产品可以例如在线上商店中被出售用于立即下载。
此外,计算机可以装备有计算机程序、机器可读数据载体或下载产品。
附图说明
下面与根据附图对本发明优选实施例的描述一起来进一步示出改善本发明的其他措施。
图1示出用于训练KNN 1的方法100的实施例;
图2示出方法200的实施例;
图3示出与在“剪枝”时的置零相比而言对参数12b的保持对KNN 1的性能的影响。
具体实施方式
图1是用于训练KNN 1的方法100的一种实施例的示意流程图。在步骤105中,可选地选择KNN 1,所述KNN被构造为图像分类器。
在步骤110,KNN 1的可训练参数12被初始化。根据块111,用于该初始化的值可以尤其是例如从数列中得到(beziehen),确定性算法16基于起始配置16a提供所述数列。根据块111a,数列可以尤其是例如是伪随机数列。
在步骤120中,提供训练数据11a。这些训练数据是用额定输出13a标记的,KNN 1应该分别将训练数据11a映射到所述额定输出13a。
训练数据11a在步骤130中被输送给KNN 1,并且由KNN 1映射到输出13。在步骤140中根据预先给定的成本函数14评价这些输出13与学习输出13a的一致性。
根据预先给定的标准15,从参数12的集合中至少选择待训练的参数12a的第一子集和待保持的参数12b的第二子集,所述预先给定的标准尤其是例如也可以利用评价14a。预先给定的标准15尤其是可以例如包含参数12的相关性评价15a。
待训练的参数12a在步骤160中以如下目标被优化:通过KNN 1对训练数据11a的进一步处理预计导致通过成本函数14的更好评价14a。要训练的参数12a的完成训练的状态用附图标记12a*标出。
待保持的参数12b在步骤170中分别被保留在其初始化值或在优化160时已得到的值上。
在考虑完成训练的参数12a*、确定性算法16以及其起始配置16a的情况下,可以在步骤180中形成KNN 1的压缩件1a,所述压缩件1a与原则上在KNN 1中可供使用的参数12的完整集相比是极其紧凑的(kompakt)。在无KNN 1的性能的可察觉的损失的情况下可能的是:以数量级150的因子进行压缩。
在框150内给出如下多种示例性可能性:如何能够从总共可供使用的参数12中一方面选择待训练的参数12a以及另一方面选择待保持的参数12b。
根据块151,例如可以选择预先给定数量的“前N个(Top-N)”最相关的参数12和/或自身的相关性评价15a比预先给定阈值更好的这种参数12作为待训练的参数12a。
根据块152,例如可以选择基于预先给定的时间预算和/或硬件资源确定的数量的参数12作为待训练的参数12a。
根据块153,例如可以从权重中选择待保持的参数12b,以所述权重对输送给KNN1的神经元或其他处理单元的输入进行相加用于激活所述神经元或其他处理单元。而相反地,根据块154可以选择可以利用所述激活加性地结算(verrechnen)的偏差值作为待训练的参数12a。因此,待训练的参数12a包括所有偏差值,但是仅包括所述权重的一小部分。
根据块155,响应于KNN 1的根据成本函数14测量的训练进度满足预先给定的标准17,可以将至少一个参数12从待保持的参数12b的集合转移到待训练的参数12a的集合中。
图2是方法200的一种实施例的示意流程图。在步骤210中,利用上述方法100训练KNN 1。在步骤220中,将已利用至少一个传感器2记录的测量数据11输送给该KNN 1。在步骤230中,由KNN 1将测量数据11映射到输出13。在步骤240中根据这些输出13生成操控信号240a。在步骤250中,利用操控信号240a操控车辆50、对象识别系统60、用于产品质量控制(Qualitätskontrolle)的系统70和/或用于医学成像的系统80。
图3根据两个示例示出:如果作为不待训练的参数12b的不待训练的权重不被设置为零而是取而代之地被保持在其当前状态下,则被用作图像分类器的KNN 1的分类精度A随着这些权重12b的配额(Quote)q而变好多少。在图表(a)和(b)中,分别关于配额q绘制分类精度A。而相反,在KNN 1中利用激活加性地结算的所有偏差值继续被训练。因此根据图1中的块153选择不待训练的参数12b,并且根据图1中的块154选择偏差值作为待训练的参数12a。因此,即使配额为q=1时,分类能力也仍然不会被降到随机猜测(Raten)的分类能力。
图表(a)涉及架构“LeNet-300-100”的KNN 1,所述架构已基于用于对来自MNIST数据集的手写数字进行分类的任务被训练。水平线(i)代表当所有可训练的参数12实际上被训练时可达成的最大分类精度A。曲线(ii)显示当参数12的相应配额q被保持在其当前状况并且不进一步被训练时出现的分类精度A的下降。曲线(iii)显示当替代于此地利用SNIP算法(“基于连接敏感度的单次网络剪枝(„Single-shot Network Pruning based onConnection Sensitivity“)”)选择参数12的相应配额q并且将这些参数设置为零时出现的分类精度A的下降。曲线(i)至(iii)分别利用置信区间予以说明,其中针对曲线(i)的方差消失。
图表(b)涉及架构“LeNet-5-Caffe”的KNN 1,所述架构已同样基于用于对来自MNIST数据集的手写数字进行分类的任务被训练。类似于图表(a),水平线(i)代表当KNN 1的所有可用参数12实际上被训练时出现的最大分类精度A。曲线(ii)显示当参数12的相应配额q被保持时出现的分类精度A的下降。曲线(iii)显示当代替地利用SNIP算法(“基于连接敏感性的单次网络剪枝”)选择参数12的相应配额q并且将这些参数设置为零时出现的分类精度A的下降。
在两个图表(a)和(b)中,一方面参数12的保持与另一方面参数12的置零之间的质量差异随着不待训练的参数12的配额q增加而变得越来越大。当将参数12置零时,此外分别存在临界配额q,在该临界配额的情况下,分类精度A突然急剧崩溃。
Claims (16)
1.一种用于训练人工神经网络KNN(1)的方法(100),所述人工神经网络的行为通过可训练参数(12)表征,所述方法具有步骤:
•对所述参数(12)进行初始化(110);
•提供(120)训练数据(11a),所述训练数据是用额定输出(13a)标记的,所述KNN(1)应该将所述训练数据(11a)分别映射到所述额定输出;
•将所述训练数据(11a)输送给所述KNN(1)并且由所述KNN(1)映射(130)到输出(13);
·根据预先给定的成本函数(14)评价(140)所述输出(13)与学习输出(13a)的一致性;
·根据预先给定的标准(15),从参数(12)的集合中至少选择(150)待训练的参数(12a)的第一子集和待保持的参数(12b)的第二子集;
·以如下目标对所述待训练的参数(12a)进行优化(160):通过所述KNN(1)对训练数据(11a)的进一步处理预计导致通过成本函数(14)的更好评价(14a);
·分别将待保持的参数(12b)保留(170)在其初始化值或在优化(160)时已经获得的值上。
2.根据权利要求1所述的方法(100),其中所述预先给定的标准(15)包括所述参数(12)的相关性评价(15a)。
3.根据权利要求2所述的方法(100),其中至少一个参数(12)的相关性评价(15a)包含:在至少一个通过训练数据(11a)预先给定的点处在激活所述参数(12)之后成本函数(14)的偏导数。
4.根据权利要求2至3中任一项所述的方法(100),其中所述预先给定的标准(15)包含:作为待训练的参数(12a)而选择(151)预先给定数量的最相关的参数(12)和/或其相关性评价(15a)比预先给定的阈值更好的参数(12)。
5.根据权利要求2至4中任一项所述的方法(100),其中针对至少一个参数(12)的相关性评价(15a)考虑所述参数(12)在优化(160)时已经历的变化的历史记录。
6.根据权利要求1至5中任一项所述的方法(100),其中所述预先给定的标准(15)包含:作为待训练的参数(12a)而选择(152)根据预先给定的时间预算和/或硬件资源所确定的数量的参数(12)。
7.根据权利要求1至6中任一项所述的方法(100),其中从如下权重中选择(153)待保持的参数(12b),其中以所述权重对输送给所述KNN(1)的神经元或其他处理单元的输入进行相加用于激活所述神经元或其他处理单元,并且其中选择(154)利用所述激活而加性地结算的偏差值作为待训练的参数(12a)。
8.根据权利要求1至7中任一项所述的方法(100),其中响应于KNN(1)的根据所述成本函数(14)测量的训练进度满足预先给定的标准(17),将至少一个参数(12)从待保持的参数(12b)的集合转移(155)到所述待训练的参数(12a)的集合中。
9.根据权利要求1至8中任一项所述的方法(100),其中所述参数(12)利用来自于由确定性算法(16)基于起始配置(16a)所产生的数列中的值被初始化(111)。
10.根据权利要求9所述的方法(100),其中选择(111a)伪随机数列。
11.根据权利要求9至10中任一项所述的方法(100),其中产生(180)所述KNN的压缩件(1a),所述压缩件至少包括:
•表征所述KNN(1)的架构的说明;
•表征所述确定性算法的说明;
•用于所述确定性算法的起始配置;和
•所述待训练的参数(12a)的完成训练的值(12a*)。
12.根据权利要求1至11中任一项所述的方法(100),其中选择(105)被构造为图像分类器的KNN,所述图像分类器将图像映射到对预先给定的分类的一个或多个类别的分配。
13.一种方法(200),所述方法具有步骤:
·利用根据权利要求1至12中任一项所述的方法(100)对人工神经网络KNN(1)进行训练(210);
•将已利用至少一个传感器(2)记录的测量数据(11)输送(220)给所述KNN(1);
•由所述KNN(1)将所述测量数据(11)映射(230)到输出(13);
•根据所述输出(13)生成(240)操控信号(240a);和
·利用所述操控信号(240a)操控(250)车辆(50)、对象识别系统(60)、用于对产品进行质量控制的系统(70)和/或用于医学成像的系统(80)。
14.一种计算机程序,所述计算机程序包含机器可读指令,当所述机器可读指令在一个或多个计算机上被执行时,所述机器可读指令促使所述一个计算机或多个计算机执行根据权利要求1至13中任一项所述的方法(100、200)。
15.一种机器可读数据载体和/或下载产品,其具有根据权利要求14所述的计算机程序和/或具有KNN(1)的根据权利要求11产生的压缩件(1a)。
16.一种计算机,所述计算机具有根据权利要求14所述的计算机程序和/或具有根据权利要求15所述的机器可读数据载体和/或下载产品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020214850.3 | 2020-11-26 | ||
DE102020214850.3A DE102020214850A1 (de) | 2020-11-26 | 2020-11-26 | Energie- und speichereffizientes Training neuronaler Netzwerke |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114548395A true CN114548395A (zh) | 2022-05-27 |
Family
ID=81585900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111411233.7A Pending CN114548395A (zh) | 2020-11-26 | 2021-11-25 | 神经网络的能量高效和存储高效的训练 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220164654A1 (zh) |
CN (1) | CN114548395A (zh) |
DE (1) | DE102020214850A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022125918A1 (de) | 2022-10-07 | 2024-04-18 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren zum Erstellen und/oder Einlernen eines künstlichen neuronalen Netzes, Verfahren zur kontaktlosen Ermittlung von Betriebsparametern eines Triebwerkes, Computerprogramm und computerlesbares Medium |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019205079A1 (de) | 2018-06-19 | 2019-12-19 | Robert Bosch Gmbh | Selektive Deaktivierung von Recheneinheiten für künstliche neuronale Netzwerke |
-
2020
- 2020-11-26 DE DE102020214850.3A patent/DE102020214850A1/de active Pending
-
2021
- 2021-11-09 US US17/454,213 patent/US20220164654A1/en active Pending
- 2021-11-25 CN CN202111411233.7A patent/CN114548395A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220164654A1 (en) | 2022-05-26 |
DE102020214850A1 (de) | 2022-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200372362A1 (en) | Method of continual-learning of data sets and apparatus thereof | |
US11537887B2 (en) | Action selection for reinforcement learning using a manager neural network that generates goal vectors defining agent objectives | |
US20090271344A1 (en) | Method for computer-aided control or regualtion of a technical system | |
WO2015054264A1 (en) | Methods and apparatus for reinforcement learning | |
KR20210032140A (ko) | 뉴럴 네트워크에 대한 프루닝을 수행하는 방법 및 장치 | |
US11347221B2 (en) | Artificial neural networks having competitive reward modulated spike time dependent plasticity and methods of training the same | |
KR20200100302A (ko) | 신경망 기반의 데이터 처리 방법, 신경망 트레이닝 방법 및 그 장치들 | |
Sleet et al. | On the computation of value correspondences for dynamic games | |
CN114842343A (zh) | 一种基于ViT的航空图像识别方法 | |
Beck et al. | Hypernetworks in meta-reinforcement learning | |
CN114548395A (zh) | 神经网络的能量高效和存储高效的训练 | |
CN113614743A (zh) | 用于操控机器人的方法和设备 | |
CN103077184A (zh) | 用于基于规则的情景获取的方法 | |
CN113454655A (zh) | 针对在硬件上的高效实施来训练神经网络 | |
Hu et al. | Incremental learning framework for autonomous robots based on q-learning and the adaptive kernel linear model | |
US20230162018A1 (en) | Dimensional reduction of correlated vectors | |
US20220261638A1 (en) | More robust training for artificial neural networks | |
EP3836150A1 (en) | Method and apparatus for generating new chemical structure using neural network | |
CN111753978B (zh) | 一种前向耗时的确定方法、装置及设备 | |
US20220327354A1 (en) | Rapid, energy-saving, iterative operation of artificial neural networks | |
KR102375896B1 (ko) | 딥 뉴럴 네트워크를 양자화하는 방법 및 장치 | |
US20220405600A1 (en) | Method for simplifying an artificial neural network | |
US20240037392A1 (en) | Further training of neural networks for the evaluation of measurement data | |
CN110162612B (zh) | 信息处理方法、装置、可读存储介质和电子设备 | |
JP7395063B2 (ja) | ニューラルネットワーク制御器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |