CN114492801A - 一种神经网络的训练方法、装置及设备 - Google Patents
一种神经网络的训练方法、装置及设备 Download PDFInfo
- Publication number
- CN114492801A CN114492801A CN202210402980.2A CN202210402980A CN114492801A CN 114492801 A CN114492801 A CN 114492801A CN 202210402980 A CN202210402980 A CN 202210402980A CN 114492801 A CN114492801 A CN 114492801A
- Authority
- CN
- China
- Prior art keywords
- neural network
- data
- computing unit
- gradient data
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 92
- 238000012549 training Methods 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000012935 Averaging Methods 0.000 claims abstract description 18
- 230000009471 action Effects 0.000 claims description 48
- 230000015654 memory Effects 0.000 claims description 39
- 238000004422 calculation algorithm Methods 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 17
- 230000003993 interaction Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 12
- 238000009826 distribution Methods 0.000 claims description 11
- 238000003860 storage Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 2
- 230000002787 reinforcement Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 230000004807 localization Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种神经网络的训练方法、装置及设备,其中,所述方法包括:构建至少一个计算单元;将待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的梯度数据;将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据;根据所述平均化后的梯度数据更新所述待训练神经网络;任一所述计算单元的参数生成操作包括:运行所述计算单元中的待训练神经网络,生成轨迹数据;根据所述轨迹数据,生成梯度数据。通过上述方式,本发明提高了神经网络的训练效率。
Description
技术领域
本发明涉及强化学习技术领域,具体涉及一种神经网络的训练方法、装置及设备。
背景技术
在超大动作空间和状态空间下,深度强化学习训练时间较长,仅一次实验就需要耗费大量训练时间,而生成有效的策略模型往往需要进行大量实验,这使得整个生产策略模型流程效率低下。
深度强化学习训练过程耗时较长的一个核心原因在于强化学习算法的采样效率偏低,需要基于大量的环境交互轨迹数据进行学习才能收敛到预期效果,得到较好策略模型。在相同的强化学习算法和超参约束下,单位时间轨迹数据吞吐量决定了训练效率。
而目前的强化学习算法架构,例如在专利文件(CN110705705A,CN108021395A)中,在提高吞吐率上有以下问题:
第一,随着将深度强化学习应用到越来越复杂的决策问题中,复杂问题的模拟环境往往具有超大的动作空间和状态空间,这会导致网络中仍然会传输大量的观测和动作数据,大大降低了轨迹数据的收集效率。
第二,当收集的轨迹数据量很大时,单个GPU会成为采样轨迹数据进行学习的瓶颈。最后,针对不同算法的轨迹数据,并没有通用的可配置的高性能轨迹存储结构。
发明内容
为解决上述问题,提出了本发明实施例的神经网络的训练方法、装置及设备。
根据本发明实施例的一个方面,提供了一种神经网络的训练方法,包括:
构建至少一个计算单元;
将待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的梯度数据;
将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据;
根据所述平均化后的梯度数据更新所述待训练神经网络;
任一所述计算单元的参数生成操作包括:
运行所述计算单元中的待训练神经网络,生成轨迹数据;
根据所述轨迹数据,生成梯度数据。
可选的,所述每个计算单元均包括:
至少一个CPU、至少一个独立内存以及一个GPU。
可选的,在构建至少一个计算单元后,还包括:
预先配置轨迹数据的维度。
可选的,运行所述计算单元中的待训练神经网络,生成轨迹数据,包括:
将所述待训练神经网络与初始环境进行交互,得到第一动作分布以及第一环境;
对所述第一动作分布进行动作采样,得到第一动作;
判断得到所述第一动作后是否满足预设停止交互条件;
若满足预设停止交互条件,将所述第一动作相关的运行数据作为轨迹数据,所述第一动作相关的运行数据包括以下至少一个:所述初始环境、所述第一动作分布、所述第一环境、所述第一动作;
若不满足预设停止交互条件,将所述第一动作传递给所述第一环境,根据第一动作以及第一环境重新执行将所述待训练神经网络与初始环境进行交互的步骤。
可选的,在运行所述计算单元中的待训练神经网络,生成轨迹数据之后,还包括:
通过所述至少一个独立内存,将轨迹数据进行储存。
可选的,根据所述轨迹数据,生成梯度数据,包括:
通过神经网络的训练算法对所述轨迹数据进行处理,生成梯度数据。
可选的,在生成梯度数据之后,还包括:
将所述梯度数据储存在所述至少一个独立内存中。
可选的,将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据,包括:
通过所述至少一个独立内存,读取每个计算单元生成的梯度数据;
将所述每个计算单元生成的梯度数据进行求和,得到求和后的梯度数据;
对所述求和后的数据进行平均化,得到平均化后的梯度数据。
根据本发明实施例的另一方面,提供了一种神经网络的训练装置,所述装置包括:
构建模块,用于构建至少一个计算单元;
处理模块,用于将待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的梯度数据;将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据;运行所述计算单元中的待训练神经网络,生成轨迹数据;根据所述轨迹数据,生成梯度数据;
更新模块,用于根据所述平均化后的梯度数据更新所述待训练神经网络。
根据本发明实施例的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述神经网络的训练方法对应的操作。
根据本发明实施例的再一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述神经网络的训练方法对应的操作。
根据本发明上述实施例提供的方案,通过构建至少一个计算单元;将待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的梯度数据;将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据;根据所述平均化后的梯度数据更新所述待训练神经网络;任一所述计算单元的参数生成操作包括:运行所述计算单元中的待训练神经网络,生成轨迹数据;根据所述轨迹数据,生成梯度数据,可以提升单位时间轨迹数据吞吐量,解决超大动作空间和状态空间下的深度强化学习训练时间过长的问题,提高了训练效率。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明实施例的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明实施例的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的神经网络的训练方法的方法流程图;
图2示出了本发明实施例提供的一种具体的基于轨迹数据本地化的通用可配置分布式策略学习流程示意图;
图3示出了本发明实施例提供的一种具体的基于轨迹数据本地化的通用可配置分布式策略学习架构示意图;
图4示出了本发明实施例提供的神经网络的训练装置的结构示意图;
图5示出了本发明实施例提供的计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1示出了本发明实施例提供的神经网络的训练方法的方法流程图。如图1所示,该方法包括以下步骤:
步骤11,构建至少一个计算单元;
步骤12,将待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的梯度数据;
步骤13,将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据;
步骤14,根据所述平均化后的梯度数据更新所述待训练神经网络;
在步骤12中,任一所述计算单元的参数生成操作包括:
步骤121,运行所述计算单元中的待训练神经网络,生成轨迹数据;
步骤122,根据所述轨迹数据,生成梯度数据。
该实施例中,通过构建至少一个计算单元;将待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的梯度数据;将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据;根据所述平均化后的梯度数据更新所述待训练神经网络;任一所述计算单元的参数生成操作包括:运行所述计算单元中的待训练神经网络,生成轨迹数据;根据所述轨迹数据,生成梯度数据,可以提升单位时间轨迹数据吞吐量,解决超大动作空间和状态空间下的深度强化学习训练时间过长的问题,提高了训练效率。
在本发明的一可选的实施例中,所述每个计算单元均包括:
至少一个CPU、至少一个独立内存以及一个GPU,所述至少一个独立内存可与其他计算单元的独立内存共享。
该实施例中,计算单元可构建在单机或多机集群内的节点上,每个节点上的计算单元数量没有限制,可以相同也可以不同。
在本发明的又一可选的实施例中,在步骤11之后,还可以包括:
步骤111,预先配置轨迹数据的维度。
该实施例中,由于每个深度强化学习算法都会用到的一些通用的属性,轨迹数据存储结构则会默认提供深度强化学习算法中通用的轨迹属性,包括:环境状态state、动作action,下一时刻state_next、奖励reward、环境是否运行结束done,但不仅限于如上所述,此类默认轨迹数据不用预先配置,轨迹存储结构会自动根据接入的环境生成数据维度。对于非通用的属性,可以通过预配置的方式对特定算法、特定问题的轨迹属性进行灵活配置。配置可以采用numpy中对多维数组定义的格式,例如一个轨迹名称叫做value,维度为(2,4,5),则在配置中以声明的方式提前声明一个名称为value,维度为(2, 4, 5)的轨迹属性。
在本发明的一可选的实施例中,步骤12中,将待训练神经网络分别放置到所述至少一个计算单元内,可以包括:
将待训练神经网络分别放置到所述至少一个计算单元内部的GPU中,并采用相同的网络参数进行初始化。
在本发明的又一可选的实施例中,步骤121可以包括:
步骤1211,将所述待训练神经网络与初始环境进行交互,得到第一动作分布以及第一环境;
步骤1212,对所述第一动作分布进行动作采样,得到第一动作;
步骤1213,判断得到所述第一动作后是否满足预设停止交互条件;
步骤1214,若满足预设停止交互条件,将所述第一动作相关的运行数据作为轨迹数据,所述第一动作相关的运行数据包括以下至少一个:所述初始环境、所述第一动作分布、所述第一环境、所述第一动作,但不仅限于如上所述;
步骤1215,若不满足预设停止交互条件,将所述第一动作传递给所述第一环境,根据第一动作以及第一环境重新执行将所述待训练神经网络与初始环境进行交互的步骤。
该实施例中,在任意一个计算单元内部,待训练神经网络与初始环境进行交互,即将并行环境返回的状态信息,传递给GPU上的待训练神经网络进行推理,得到动作分布后,进行动作采样,最后得到具体的动作。再将动作传递给并行环境,生成新一轮的状态、奖励、一局是否结束标志等轨迹数据,但不仅限于如上所述,直到达到预设停止交互条件,其中,预设停止交互条件可以设置为达到预设的步数,但不仅限于达到预设的步数。
在本发明的又一可选的实施例中,在步骤121之后,还可以包括:
步骤1216,通过所述至少一个独立内存,将轨迹数据进行储存。
该实施例中,每个计算单元得到的轨迹数据均储存在对应的预先分配好的独立内存中,储存方式可以持续储存,也可以一次性储存,但不仅限于如上所述。
在本发明的又一可选的实施例中,步骤122可以包括:
步骤1221,通过神经网络的训练算法对所述轨迹数据进行处理,生成梯度数据。
该实施例中,在任意一个计算单元内部,首先从对应的独立内存中读取轨迹数据,然后再将读取到的轨迹数据传入单独的神经网络的训练算法进行运算,当算法在反传阶段计算结束后,得到该计算单元内部的梯度数据。
在本发明的又一可选的实施例中,在步骤122之后,还可以包括:
步骤1222,将所述梯度数据储存在所述至少一个独立内存中。
在本发明的再一可选的实施例中,步骤13可以包括:
步骤131,通过所述至少一个独立内存,读取每个计算单元生成的梯度数据;
步骤132,将所述每个计算单元生成的梯度数据进行求和,得到求和后的梯度数据;
步骤133,对所述求和后的数据进行平均化,得到平均化后的梯度数据。
该实施例中,首先,针对所有计算单元,基于集合通信机制,使用all-reduce规约操作将每个计算单元中储存的梯度数据传递到其他所有的计算单元中,并进行求和操作,此时,所有计算单元内的梯度数据为所有梯度数据之和,其次,针对每个计算单元,将所有梯度数据之和进行平均化,即梯度数据之和除以计算单元总个数,使每个计算单元得到平均化后的梯度数据。
在本发明的又一可选的实施例中,步骤14中,由于每个计算单元均得到了平均化后的梯度数据,因此每个计算单元内部的待训练神经网络均学习到了所有计算单元中的训练数据。
在本发明的再一可选的实施例中,在步骤14之后,还可以进行第二轮训练,包括:
步骤141,将更新后的待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的第二轮梯度数据;
步骤142,将所述每个计算单元得出的第二轮梯度数据进行平均化,得到第二轮平均化后的梯度数据;
步骤143,根据所述第二轮平均化后的梯度数据更新所述待训练神经网络。
图2示出了本发明实施例提供的一种具体的基于轨迹数据本地化的通用可配置分布式策略学习流程示意图,如图2所示,策略的学习可以在多个节点上分布式运行,每个节点上具有1个或多个GPU,每个节点上的GPU数量不必相同。一个节点内部可以根据GPU数量的多少划分为多个计算单元,一个计算单元包含一个GPU、多个并行环境和独立的共享内存空间,在计算单元中的GPU上运行策略学习算法进行训练。每个计算单元进行完整的深度强化策略学习,学习过程中,通过将每个计算单元内部的深度神经网络梯度数据求和平均,生成全局平均梯度数据,并扩散到每一个计算单元。每个计算单元根据全局平均梯度数据独自对单元内部的深度神经网络参数进行更新。在此过程中,计算单元内部生成的轨迹数据,只在计算单元内部的GPU中进行学习。
图3示出了本发明实施例提供的一种具体的基于轨迹数据本地化的通用可配置分布式策略学习架构示意图,如图3所示,该框架能够实现对待训练神经网络高吞吐训练,具体的:第一,该框架产生的轨迹数据只在计算单元内部流转,不经过网络传输,在分布式训练过程中,网络只传输数据量较小的深度神经网络的梯度信息;第二,基于分布式数据并行技术,为各类强化学习算法提供易接入的通用单机多GPU甚至多机多GPU训练能力;第三,基于共享内存,构造通用的可配置的高性能轨迹存储结构。
以下以两种具体的场景来说明本发明实施例提供的神经网络的训练方法的有益效果:
场景一,大规模分布式深度强化学习训练加速:在深度强化学习的科研中,由于单次训练时间较长,成为科研过程的瓶颈,另外,目前深度强化学习除了在科研领域外,越来越多的应用到各行各业,进行博弈、决策和多目标优化等复杂问题的求解。这类问题的求解过程往往对求解时效性要求较高,比如电力分配问题、出租车调度问题、库存预测优化问题等等,单机训练效率较低,不能满足此类问题对时效性的要求。利用本发明实施例提供的神经网络的训练方法,可以通过大规模分布式深度强化学习训练,在深度强化学习中引入分布式数据并行,扩大一次训练数据量的大小,实现训练加速。
场景二:复杂决策问题求解,常规的分布式训练架构在网络中传输的数据量,与动作空间和状态空间的规模直接相关,而复杂决策问题的动作空间和状态空间往往很大,导致学习效率偏低,不适合求解复杂决策问题。利用本发明实施例提供的神经网络的训练方法,可以在网络中不传输此类数据,而只传输深度神经网络的梯度数据,实现高效率的策略学习。
本发明上述实施例提供的神经网络的训练方法,实现了高吞吐、通用可配置、高性能,同时以统一的架构实现了单机多GPU和多机多GPU训练,且训练架构可以水平扩展,其中,高吞吐为:基于轨迹数据本地化,学习过程中不需要在网络中传输大量的网络参数、轨迹、动作等数据,节省了网络通信时间,特别是针对复杂环境尤为明显,轨迹数据在分布式集群中的单机内部交互生成和训练利用,实现了高吞吐;通用可配置为:针对不同的算法,不同的问题,轨迹数据的维度是不一样的,本发明实施例中通用的可配置的高性能轨迹存储可以适配不同的轨迹数据维度;高性能为:提前在共享内存中划分轨迹数据的内存空间,后续不再进行内存空间申请和释放,提升轨迹数据读写性能。
图4示出了本发明实施例提供的神经网络的训练装置40的结构示意图。如图4所示,该装置包括:
构建模块41,用于构建至少一个计算单元;
处理模块42,用于将待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的梯度数据;将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据;运行所述计算单元中的待训练神经网络,生成轨迹数据;根据所述轨迹数据,生成梯度数据;其中,任一所述计算单元的参数生成操作包括:运行所述计算单元中的待训练神经网络,生成轨迹数据;根据所述轨迹数据,生成梯度数据;
更新模块43,用于根据所述平均化后的梯度数据更新所述待训练神经网络。
可选的,所述每个计算单元均包括:
至少一个CPU、至少一个独立内存以及一个GPU。
可选的,所述构建模块41还用于预先配置轨迹数据的维度。
可选的,所述处理模块42还用于将所述待训练神经网络与初始环境进行交互,得到第一动作分布以及第一环境;
对所述第一动作分布进行动作采样,得到第一动作;
判断得到所述第一动作后是否满足预设停止交互条件;
若满足预设停止交互条件,将所述第一动作相关的运行数据作为轨迹数据,所述第一动作相关的运行数据包括以下至少一个:所述初始环境、所述第一动作分布、所述第一环境、所述第一动作;
若不满足预设停止交互条件,将所述第一动作传递给所述第一环境,根据第一动作以及第一环境重新执行将所述待训练神经网络与初始环境进行交互的步骤。
可选的,所述处理模块42还用于通过所述至少一个独立内存,将轨迹数据进行储存。
可选的,所述处理模块42还用于通过神经网络的训练算法对所述轨迹数据进行处理,生成梯度数据。
可选的,所述处理模块42还用于将所述梯度数据储存在所述至少一个独立内存中。
可选的,所述处理模块42还用于通过所述至少一个独立内存,读取每个计算单元生成的梯度数据;
将所述每个计算单元生成的梯度数据进行求和,得到求和后的梯度数据;
对所述求和后的数据进行平均化,得到平均化后的梯度数据。
应理解,上述对图1至图3示意的方法实施例的说明,仅是以可选示例的方式对本发明技术方案的阐述,对本发明涉及的神经网络的训练方法不构成限制。另一些实施方式中,本发明涉及的神经网络的训练方法的执行步骤和顺序,可以不同于上述实施例,本发明实施例对此不限制。
需要说明的是,该实施例是与上述方法实施例对应的装置实施例,上述方法实施例中的所有实现方式均适用于该装置的实施例中,也能达到相同的技术效果。
本发明实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的神经网络的训练方法。
图5示出了本发明实施例提供的计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图5所示,该计算设备可以包括:处理器(processor)、通信接口(Communications Interface)、存储器(memory)、以及通信总线。
其中:处理器、通信接口、以及存储器通过通信总线完成相互间的通信。通信接口,用于与其它设备比如客户端或其它服务器等的网元通信。处理器,用于执行程序,具体可以执行上述用于计算设备的神经网络的训练方法实施例中的相关步骤。
具体地,程序可以包括程序代码,该程序代码包括计算机操作指令。
处理器可能是中央处理器CPU,或者是特定集成电路ASIC(Application SpecificIntegrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器,用于存放程序。存储器可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序具体可以用于使得处理器执行上述任意方法实施例中的神经网络的训练方法。程序中各步骤的具体实现可以参见上述神经网络的训练方法实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明实施例的内容,并且上面对特定语言所做的描述是为了披露本发明实施例的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明实施例并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的一些或者全部部件的一些或者全部功能。本发明实施例还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明实施例的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明实施例进行说明而不是对本发明进行限制,位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明实施例可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (11)
1.一种神经网络的训练方法,其特征在于,所述方法包括:
构建至少一个计算单元;
将待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的梯度数据;
将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据;
根据所述平均化后的梯度数据更新所述待训练神经网络;
任一所述计算单元的参数生成操作包括:
运行所述计算单元中的待训练神经网络,生成轨迹数据;
根据所述轨迹数据,生成梯度数据。
2.根据权利要求1所述的神经网络的训练方法,其特征在于,所述每个计算单元均包括:
至少一个CPU、至少一个独立内存以及一个GPU。
3.根据权利要求1所述的神经网络的训练方法,其特征在于,在构建至少一个计算单元后,还包括:
预先配置轨迹数据的维度。
4.根据权利要求1所述的神经网络的训练方法,其特征在于,运行所述计算单元中的待训练神经网络,生成轨迹数据,包括:
将所述待训练神经网络与初始环境进行交互,得到第一动作分布以及第一环境;
对所述第一动作分布进行动作采样,得到第一动作;
判断得到所述第一动作后是否满足预设停止交互条件;
若满足预设停止交互条件,将所述第一动作相关的运行数据作为轨迹数据,所述第一动作相关的运行数据包括以下至少一个:所述初始环境、所述第一动作分布、所述第一环境、所述第一动作;
若不满足预设停止交互条件,将所述第一动作传递给所述第一环境,根据第一动作以及第一环境重新执行将所述待训练神经网络与初始环境进行交互的步骤。
5.根据权利要求2所述的神经网络的训练方法,其特征在于,在运行所述计算单元中的待训练神经网络,生成轨迹数据之后,还包括:
通过所述至少一个独立内存,将轨迹数据进行储存。
6.根据权利要求1所述的神经网络的训练方法,其特征在于,根据所述轨迹数据,生成梯度数据,包括:
通过神经网络的训练算法对所述轨迹数据进行处理,生成梯度数据。
7.根据权利要求2所述的神经网络的训练方法,其特征在于,在生成梯度数据之后,还包括:
将所述梯度数据储存在所述至少一个独立内存中。
8.根据权利要求7所述的神经网络的训练方法,其特征在于,将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据,包括:
通过所述至少一个独立内存,读取每个计算单元生成的梯度数据;
将所述每个计算单元生成的梯度数据进行求和,得到求和后的梯度数据;
对所述求和后的数据进行平均化,得到平均化后的梯度数据。
9.一种神经网络的训练装置,其特征在于,所述装置包括:
构建模块,用于构建至少一个计算单元;
处理模块,用于将待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的梯度数据;将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据;运行所述计算单元中的待训练神经网络,生成轨迹数据;根据所述轨迹数据,生成梯度数据;其中,任一所述计算单元的参数生成操作包括:运行所述计算单元中的待训练神经网络,生成轨迹数据;根据所述轨迹数据,生成梯度数据;
更新模块,用于根据所述平均化后的梯度数据更新所述待训练神经网络。
10.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存储至少一可执行指令,所述至少一可执行指令运行时使所述处理器执行如权利要求1-8中任一项所述的神经网络的训练方法。
11.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令运行时使计算设备执行如权利要求1-8中任一项所述的神经网络的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210402980.2A CN114492801A (zh) | 2022-04-18 | 2022-04-18 | 一种神经网络的训练方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210402980.2A CN114492801A (zh) | 2022-04-18 | 2022-04-18 | 一种神经网络的训练方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114492801A true CN114492801A (zh) | 2022-05-13 |
Family
ID=81489326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210402980.2A Pending CN114492801A (zh) | 2022-04-18 | 2022-04-18 | 一种神经网络的训练方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114492801A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190244099A1 (en) * | 2018-02-05 | 2019-08-08 | Deepmind Technologies Limited | Continual reinforcement learning with a multi-task agent |
CN110235148A (zh) * | 2016-11-03 | 2019-09-13 | 渊慧科技有限公司 | 训练动作选择神经网络 |
CN110705705A (zh) * | 2019-09-25 | 2020-01-17 | 浪潮电子信息产业股份有限公司 | 卷积神经网络模型同步训练方法、集群及可读存储介质 |
CN112882835A (zh) * | 2021-03-01 | 2021-06-01 | 润联软件系统(深圳)有限公司 | 一种机器节点并行处理方法、装置、计算机设备及存储介质 |
CN113449839A (zh) * | 2020-03-25 | 2021-09-28 | 阿里巴巴集团控股有限公司 | 一种分布式训练方法、梯度通信方法、装置以及计算设备 |
CN113642734A (zh) * | 2020-05-11 | 2021-11-12 | 阿里巴巴集团控股有限公司 | 一种深度学习模型的分布式训练方法、装置以及计算设备 |
CN114327399A (zh) * | 2021-11-25 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 分布式训练方法、装置、计算机设备、存储介质和产品 |
-
2022
- 2022-04-18 CN CN202210402980.2A patent/CN114492801A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110235148A (zh) * | 2016-11-03 | 2019-09-13 | 渊慧科技有限公司 | 训练动作选择神经网络 |
US20190244099A1 (en) * | 2018-02-05 | 2019-08-08 | Deepmind Technologies Limited | Continual reinforcement learning with a multi-task agent |
CN110705705A (zh) * | 2019-09-25 | 2020-01-17 | 浪潮电子信息产业股份有限公司 | 卷积神经网络模型同步训练方法、集群及可读存储介质 |
CN113449839A (zh) * | 2020-03-25 | 2021-09-28 | 阿里巴巴集团控股有限公司 | 一种分布式训练方法、梯度通信方法、装置以及计算设备 |
CN113642734A (zh) * | 2020-05-11 | 2021-11-12 | 阿里巴巴集团控股有限公司 | 一种深度学习模型的分布式训练方法、装置以及计算设备 |
CN112882835A (zh) * | 2021-03-01 | 2021-06-01 | 润联软件系统(深圳)有限公司 | 一种机器节点并行处理方法、装置、计算机设备及存储介质 |
CN114327399A (zh) * | 2021-11-25 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 分布式训练方法、装置、计算机设备、存储介质和产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Du et al. | A survey on multi-agent deep reinforcement learning: from the perspective of challenges and applications | |
Mousavi et al. | Traffic light control using deep policy‐gradient and value‐function‐based reinforcement learning | |
Gupta et al. | Insights on transfer optimization: Because experience is the best teacher | |
Tao et al. | Resource service composition and its optimal-selection based on particle swarm optimization in manufacturing grid system | |
CN106951926A (zh) | 一种混合架构的深度学习系统方法及装置 | |
CN115361301B (zh) | 一种基于dqn的分布式计算网络协同流量调度系统与方法 | |
CN113435606A (zh) | 强化学习模型的优化方法、装置、存储介质及电子设备 | |
Abdulazeez et al. | Offloading mechanisms based on reinforcement learning and deep learning algorithms in the fog computing environment | |
Li et al. | Artificial intelligence (AI) chip technology review | |
CN109657794B (zh) | 一种基于指令队列的分布式深度神经网络性能建模方法 | |
CN108320018A (zh) | 一种人工神经网络运算的装置及方法 | |
CN116633801A (zh) | 资源调度方法、装置、系统及相关设备 | |
Xiao et al. | Scheduling multi–mode resource–constrained tasks of automated guided vehicles with an improved particle swarm optimization algorithm | |
Herget et al. | Design space exploration for distributed cyber-physical systems: State-of-the-art, challenges, and directions | |
US20210150371A1 (en) | Automatic multi-objective hardware optimization for processing of deep learning networks | |
CN116938323B (zh) | 一种基于强化学习的卫星转发器资源分配方法 | |
Li et al. | Evolutionary multitasking via reinforcement learning | |
CN115345285B (zh) | 基于gpu的时序图神经网络训练方法、系统及电子设备 | |
CN112465148A (zh) | 一种多智能体系统的网络参数更新方法、装置及终端设备 | |
CN114492801A (zh) | 一种神经网络的训练方法、装置及设备 | |
Islam et al. | Transfer Learning in Deep Reinforcement Learning | |
CN113645702B (zh) | 一种利用策略梯度技术优化的支持区块链的物联网系统 | |
CN114064235A (zh) | 多任务教与学优化方法、系统及设备 | |
Lucchesi et al. | Avalanche rl: A continual reinforcement learning library | |
CN113469326A (zh) | 在神经网络模型中执行剪枝优化的集成电路装置及板卡 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |