CN116109525B - 基于多维度数据增强的强化学习方法及装置 - Google Patents
基于多维度数据增强的强化学习方法及装置 Download PDFInfo
- Publication number
- CN116109525B CN116109525B CN202310382422.9A CN202310382422A CN116109525B CN 116109525 B CN116109525 B CN 116109525B CN 202310382422 A CN202310382422 A CN 202310382422A CN 116109525 B CN116109525 B CN 116109525B
- Authority
- CN
- China
- Prior art keywords
- training
- reinforcement learning
- learning model
- sample
- data enhancement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002787 reinforcement Effects 0.000 title claims abstract description 289
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 324
- 239000013598 vector Substances 0.000 claims abstract description 106
- 238000012545 processing Methods 0.000 claims abstract description 90
- 230000009471 action Effects 0.000 claims description 60
- 230000006870 function Effects 0.000 claims description 45
- 230000003993 interaction Effects 0.000 claims description 42
- 238000004590 computer program Methods 0.000 claims description 17
- 238000009826 distribution Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 11
- 230000005021 gait Effects 0.000 claims description 8
- 238000004088 simulation Methods 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 abstract description 2
- 239000003795 chemical substances by application Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 102100040653 Tryptophan 2,3-dioxygenase Human genes 0.000 description 4
- 101710136122 Tryptophan 2,3-dioxygenase Proteins 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000009827 uniform distribution Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及机器学习技术领域,提供了一种基于多维度数据增强的强化学习方法及装置。该方法包括:获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理;将经过图像数据增强处理后的训练数据集中的训练样本作为强化学习中的状态输入到强化学习模型,利用强化学习模型对应的强化学习算法训练强化学习模型;在将训练样本输入到强化学习模型,以对强化学习模型进行训练的过程中:在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,以基于向量数据增强处理后的样本向量训练强化学习模型。采用上述技术手段,解决现有技术中,传统强化学习训练耗时以及训练的模型泛化性能差等问题。
Description
技术领域
本公开涉及机器学习技术领域,尤其涉及一种基于多维度数据增强的强化学习方法及装置。
背景技术
传统的强化学习方法中,模型泛化性能差是一个主要问题,智能体在训练过程中学到的策略只能在训练环境中有效,而在新的环境中效果会变差。这是因为传统的强化学习方法通常依赖于大量的真实数据进行训练,而真实数据往往难以获取,并且带有很大的噪声;其次,传统的强化学习方法中,数据获取效率低,智能体需要在真实环境中进行大量的试验来获取有用的数据,这会导致训练过程变得非常耗时。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下技术问题:传统强化学习依赖于大量的真实数据,导致训练耗时以及训练的模型泛化性能差等问题。
发明内容
有鉴于此,本公开实施例提供了一种基于多维度数据增强的强化学习方法、装置、电子设备及计算机可读存储介质,以解决现有技术中,传统强化学习依赖于大量的真实数据,导致训练耗时以及训练的模型泛化性能差等问题。
本公开实施例的第一方面,提供了一种基于多维度数据增强的强化学习方法,包括:获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理;将经过图像数据增强处理后的训练数据集中的训练样本作为强化学习中的状态输入到强化学习模型,利用强化学习模型对应的强化学习算法训练强化学习模型;在将训练样本输入到强化学习模型,以对强化学习模型进行训练的过程中:在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,以基于向量数据增强处理后的样本向量训练强化学习模型。
本公开实施例的第二方面,提供了一种基于多维度数据增强的强化学习装置,包括:残差模块,被配置为获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理;训练模块,被配置为将经过图像数据增强处理后的训练数据集中的训练样本作为强化学习中的状态输入到强化学习模型,利用强化学习模型对应的强化学习算法训练强化学习模型;训练模块还被配置为在将训练样本输入到强化学习模型,以对强化学习模型进行训练的过程中:在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,以基于向量数据增强处理后的样本向量训练强化学习模型。
本公开实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:因为本公开实施例通过获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理;将经过图像数据增强处理后的训练数据集中的训练样本作为强化学习中的状态输入到强化学习模型,利用强化学习模型对应的强化学习算法训练强化学习模型;在将训练样本输入到强化学习模型,以对强化学习模型进行训练的过程中:在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,以基于向量数据增强处理后的样本向量训练强化学习模型,因此,采用上述技术手段,可以解决现有技术中,传统强化学习训练耗时以及训练的模型泛化性能差等问题,进而减少训练耗时并提高训练的模型泛化性能。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例提供的一种基于多维度数据增强的强化学习方法的流程示意图(一);
图2是本公开实施例提供的一种基于多维度数据增强的强化学习方法的流程示意图(二);
图3是本公开实施例提供的一种基于多维度数据增强的强化学习装置的结构示意图;
图4是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
图1是本公开实施例提供的一种基于多维度数据增强的强化学习方法的流程示意图(一)。图1的基于多维度数据增强的强化学习方法可以由计算机或服务器,或者计算机或服务器上的软件执行。如图1所示,该基于多维度数据增强的强化学习方法包括:
S101,获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理;
S102,将经过图像数据增强处理后的训练数据集中的训练样本作为强化学习中的状态输入到强化学习模型,利用强化学习模型对应的强化学习算法训练强化学习模型;
S103,在将训练样本输入到强化学习模型,以对强化学习模型进行训练的过程中:在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,以基于向量数据增强处理后的样本向量训练强化学习模型。
强化学习主要由智能体(Agent)、环境(Environment)、状态(State)、动作(Action)、奖励(Reward)组成。
智能体就是本公开实施例中的强化学习模型,训练样本作为强化学习中的状态,也就是强化学习模型的输入,动作是强化学习模型的输出,强化学习模型输出动作后,可以计算得到一个奖励,用于约束强化学习的策略,更新强化学习模型的模型参数。强化学习包括了强化学习模型和强化学习算法,强化学习模型和强化学习算法之间有对应关系,比如强化学习算法分别是PPO算法、A3C算法、TRPO算法或DQN算法,那么强化学习模型分别对应的是PPO模型、A3C模型、TRPO模型或DQN模型。
传统强化学习依赖于大量相同或很类似的的真实数据,为了准备大量相同或很类似的真实数据,会导致训练耗时很长;使用大量的真实数据训练的模型,会导致模型泛化性能差等。本公开实施例对训练数据进行多维度数据增强,通过该方法不需要准备大量的真实数据,只需要对少量真是数据进行数据增强,就可以得到大量的训练数据;因为该方法得到了大量数据增强得到的数据,所以可以避免大量真实数据训练模型导致模型泛化性能差的问题。所以通过该方法可以减少训练耗时并提高训练的模型泛化性能。
具体地,本公开实施例在训练样本输入强化学习模型之前,训练样本经过图像数据增强处理;训练样本输入强化学习模型之后,强化学习模型内部处理训练样本得到的样本向量经过向量数据增强处理。通过上述方法就可以进行多维度数据增强。
根据本公开实施例提供的技术方案,获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理;将经过图像数据增强处理后的训练数据集中的训练样本作为强化学习中的状态输入到强化学习模型,利用强化学习模型对应的强化学习算法训练强化学习模型;在将训练样本输入到强化学习模型,以对强化学习模型进行训练的过程中:在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,以基于向量数据增强处理后的样本向量训练强化学习模型,因此,采用上述技术手段,可以解决现有技术中,传统强化学习训练耗时以及训练的模型泛化性能差等问题,进而减少训练耗时并提高训练的模型泛化性能。
当训练数据集中的训练样本是关于视频游戏的图像的情况下,基于训练样本训练后的强化学习模型用于视频游戏模拟,包括对视频游戏中AI角色的控制;训练样本输入强化学习模型之前,训练样本经过图像数据增强处理,训练样本输入强化学习模型之后,强化学习模型内部处理训练样本得到的样本向量经过向量数据增强处理。
通过本公开实施例的上述方法,可以利用训练后的强化学习模型用进行视频游戏模拟,比如对视频游戏中AI角色的控制。
当训练数据集中的训练样本是关于视频游戏的图像的情况下,基于训练样本训练强化学习模型,包括:将训练数据集中属于同一次交互的多个训练样本作为一个整体输入强化学习模型,输出该次交互的每个训练样本对应的动作,并计算该次交互对应的整体奖励,其中每次交互对应的整体奖励是根据视频游戏中该次交互的得分计算出来的;利用每次交互对应的整体奖励优化强化学习模型的模型参数,以完成对强化学习模型的训练。
举例说明:在开始视频游戏后5分钟到5分钟30秒发生了一波团战,5分钟到5分钟30秒之间可以看做该视频游戏和强化学习模型发生了一次交互。在该次交互中,获取到了一系列关于本次团战的图像作为训练样本,AI角色(也就是电脑控制的角色)相当于强化学习模型,因为电脑通过强化学习模型控制AI角色,AI角色的动作是强化学习模型输出的,AI角色的动作可以是上移,下移,左移,右移,普通攻击以及各种技能。根据本次团战的得分计算该次交互对应的整体奖励,本次团战的得分可以是AI角色在本次团战结束时的分数减去本次团战开始时的分数,如果本次团战的得分为正,则该次交互对应的整体奖励是正奖励,如果本次团战的得分为负,则该次交互对应的整体奖励是负奖励。
根据奖励优化强化学习模型的模型参数,涉及损失函数,该内容为强化学习常用方法,不在赘述。
当训练数据集中的训练样本是关于机器人周围环境的图像的情况下,基于训练样本训练后的强化学习模型用于机器人的控制,包括对机器人的步态控制以及路程规划;训练样本输入强化学习模型之前,训练样本经过图像数据增强处理,训练样本输入强化学习模型之后,强化学习模型内部处理训练样本得到的样本向量经过向量数据增强处理。
通过本公开实施例的上述方法,可以利用训练后的强化学习模型进行机器人控制,包括对机器人的步态控制以及路程规划。比如利用训练后的强化学习模型,根据从A位置到B位置的环境图像,为机器人推荐一组步态控制逻辑或者一个规划的最优路径。
当训练数据集中的训练样本是关于机器人周围环境的图像的情况下,基于训练样本训练强化学习模型,包括:基于训练数据集中的训练样本对强化学习模型进行多轮训练:将训练样本输入强化学习模型,利用强化学习模型的近似值函数计算训练样本对应的每个动作的近似值,以根据每个动作的近似值确定训练样本对应的最优动作;利用强化学习模型的奖励值函数计算最优动作对应的奖励;基于训练样本对应的最优动作和奖励,利用强化学习模型的损失值函数计算损失值,并通过损失值更新近似值函数的参数,继续下一轮训练,直至完成训练。
具体地,奖励值函数可以为:
其中,R为奖励,Tac为当前时刻机器人从起始位置到目标位置理论上所需的平均时间,T1为当前时刻机器人从起始位置到目标位置实际上所需的平均时间,Tac可以根据机器人通行的历史数据库确定,T1为机器人实际花费的时间。
损失值函数为:
其中,s为训练样本,a 为机器人从起始位置到目标位置的过程中机器人的动作,θ为近似值函数的参数,θ有预设的初始值,/>为近似值,R为奖励。/>为强化学习中的近似值函数。
近似值最小的动作为最优动作。
对训练数据集中的训练样本进行图像数据增强处理,包括:对训练样本的部分区域进行截取,将截取掉的部分舍弃,将截取后剩余部分作为新的训练样本,其中,截取位置是随机的,截取掉的部分占训练样本的比例不大于预设阈值;在训练样本的随机的任意位置上添加噪声,得到新的训练样本,其中,添加的噪声满足预设分布;对训练样本进行小角度旋转,得到新的训练样本,其中,小角度旋转的旋转角度小于预设大小。
预设分布可以是高斯分布,均匀分布和T分布等。
对样本向量进行向量数据增强处理,包括:对样本向量添加噪声,得到新的样本向量,其中,添加的噪声满足预设分布。
图2是本公开实施例提供的一种基于多维度数据增强的强化学习方法的流程示意图(二)。如图2所示,包括:
S201,获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理,其中,训练数据集中的训练样本是关于视频游戏的图像;
S202,将训练数据集中属于同一次交互的多个训练样本作为一个整体输入强化学习模型;
S203,在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,输出该次交互的每个样本向量对应的动作,并计算该次交互对应的整体奖励;
S204,利用每次交互对应的整体奖励优化强化学习模型的模型参数,以完成对强化学习模型的训练;
S205,利用训练后的强化学习模型进行视频游戏模拟。
根据本公开实施例提供的技术方案,获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理,其中,训练数据集中的训练样本是关于视频游戏的图像;将训练数据集中属于同一次交互的多个训练样本作为一个整体输入强化学习模型;在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,输出该次交互的每个样本向量对应的动作,并计算该次交互对应的整体奖励;利用每次交互对应的整体奖励优化强化学习模型的模型参数,以完成对强化学习模型的训练;利用训练后的强化学习模型进行视频游戏模拟,因此,采用上述技术手段,可以解决现有技术中,传统强化学习训练耗时以及训练的视频游戏模拟模型泛化性能差等问题,进而减少训练耗时并提高训练的视频游戏模拟模型泛化性能。
在一个可选实施例中,提供了一种基于多维度数据增强的强化学习方法,用于机器人控制:
S301,获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理,其中,训练数据集中的训练样本是关于机器人周围环境的图像;
S302,将训练样本输入强化学习模型;
S303,在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,输出样本向量对应的多个动作;
S304,利用强化学习模型的近似值函数计算样本向量对应的每个动作的近似值,以根据每个动作的近似值确定样本向量对应的最优动作;
S305,利用强化学习模型的奖励值函数计算最优动作对应的奖励;
S306,基于样本向量对应的最优动作和奖励,利用强化学习模型的损失值函数计算损失值,并通过损失值更新近似值函数的参数,继续下一轮训练,直至完成训练。
训练是否完成,可以通过训练的轮数判断,比如当前训练轮数达到预设轮数,判断完成训练。
根据本公开实施例提供的技术方案,获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理,其中,训练数据集中的训练样本是关于机器人周围环境的图像;将训练样本输入强化学习模型;在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,输出样本向量对应的多个动作;利用强化学习模型的近似值函数计算样本向量对应的每个动作的近似值,以根据每个动作的近似值确定样本向量对应的最优动作;利用强化学习模型的奖励值函数计算最优动作对应的奖励;基于样本向量对应的最优动作和奖励,利用强化学习模型的损失值函数计算损失值,并通过损失值更新近似值函数的参数,继续下一轮训练,直至完成训练,因此,采用上述技术手段,可以解决现有技术中,传统强化学习训练耗时以及训练的机器人控制模型泛化性能差等问题,进而减少训练耗时并提高训练的机器人控制模型泛化性能。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图3是本公开实施例提供的一种基于多维度数据增强的强化学习装置的示意图。如图3所示,该基于多维度数据增强的强化学习装置包括:
获取模块301,被配置为获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理;
训练模块302,被配置为将经过图像数据增强处理后的训练数据集中的训练样本作为强化学习中的状态输入到强化学习模型,利用强化学习模型对应的强化学习算法训练强化学习模型;
训练模块还被配置为在将训练样本输入到强化学习模型,以对强化学习模型进行训练的过程中:在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,以基于向量数据增强处理后的样本向量训练强化学习模型。
强化学习主要由智能体(Agent)、环境(Environment)、状态(State)、动作(Action)、奖励(Reward)组成。
智能体就是本公开实施例中的强化学习模型,训练样本作为强化学习中的状态,也就是强化学习模型的输入,动作是强化学习模型的输出,强化学习模型输出动作后,可以计算得到一个奖励,用于约束强化学习的策略,更新强化学习模型的模型参数。强化学习包括了强化学习模型和强化学习算法,强化学习模型和强化学习算法之间有对应关系,比如强化学习算法分别是PPO算法、A3C算法、TRPO算法或DQN算法,那么强化学习模型分别对应的是PPO模型、A3C模型、TRPO模型或DQN模型。
传统强化学习依赖于大量的真实数据,为了准备大量的真实数据,会导致训练耗时很长;使用大量相同或很类似的真实数据训练的模型,会导致模型泛化性能差等。本公开实施例对训练数据进行多维度数据增强,通过该方法不需要准备大量的真实数据,只需要对少量真是数据进行数据增强,就可以得到大量的训练数据;因为该方法得到了大量数据增强得到的数据,所以可以避免大量相同或很相似的真实数据训练模型导致模型泛化性能差的问题。所以通过该方法可以减少训练耗时并提高训练的模型泛化性能。
具体地,本公开实施例在训练样本输入强化学习模型之前,训练样本经过图像数据增强处理;训练样本输入强化学习模型之后,强化学习模型内部处理训练样本得到的样本向量经过向量数据增强处理。通过上述方法就可以进行多维度数据增强。
根据本公开实施例提供的技术方案,获取训练数据集,并对训练数据集中的训练样本进行图像数据增强处理;将经过图像数据增强处理后的训练数据集中的训练样本作为强化学习中的状态输入到强化学习模型,利用强化学习模型对应的强化学习算法训练强化学习模型;在将训练样本输入到强化学习模型,以对强化学习模型进行训练的过程中:在强化学习模型内部处理训练样本得到样本向量后,对样本向量进行向量数据增强处理,以基于向量数据增强处理后的样本向量训练强化学习模型,因此,采用上述技术手段,可以解决现有技术中,传统强化学习训练耗时以及训练的模型泛化性能差等问题,进而减少训练耗时并提高训练的模型泛化性能。
可选地,训练模块302还被配置为当训练数据集中的训练样本是关于视频游戏的图像的情况下,基于训练样本训练后的强化学习模型用于视频游戏模拟,包括对视频游戏中AI角色的控制;训练样本输入强化学习模型之前,训练样本经过图像数据增强处理,训练样本输入强化学习模型之后,强化学习模型内部处理训练样本得到的样本向量经过向量数据增强处理。
通过本公开实施例的上述方法,可以利用训练后的强化学习模型用进行视频游戏模拟,比如对视频游戏中AI角色的控制。
可选地,训练模块302还被配置为将训练数据集中属于同一次交互的多个训练样本作为一个整体输入强化学习模型,输出该次交互的每个训练样本对应的动作,并计算该次交互对应的整体奖励,其中每次交互对应的整体奖励是根据视频游戏中该次交互的得分计算出来的;利用每次交互对应的整体奖励优化强化学习模型的模型参数,以完成对强化学习模型的训练。
举例说明:在开始视频游戏后5分钟到5分钟30秒发生了一波团战,5分钟到5分钟30秒之间可以看做该视频游戏和强化学习模型发生了一次交互。在该次交互中,获取到了一系列关于本次团战的图像作为训练样本,AI角色(也就是电脑控制的角色)相当于强化学习模型,因为电脑通过强化学习模型控制AI角色,AI角色的动作是强化学习模型输出的,AI角色的动作可以是上移,下移,左移,右移,普通攻击以及各种技能。根据本次团战的得分计算该次交互对应的整体奖励,本次团战的得分可以是AI角色在本次团战结束时的分数减去本次团战开始时的分数,如果本次团战的得分为正,则该次交互对应的整体奖励是正奖励,如果本次团战的得分为负,则该次交互对应的整体奖励是负奖励。
根据奖励优化强化学习模型的模型参数,涉及损失函数,该内容为强化学习常用方法,不在赘述。
可选地,训练模块302还被配置为当训练数据集中的训练样本是关于机器人周围环境的图像的情况下,基于训练样本训练后的强化学习模型用于机器人的控制,包括对机器人的步态控制以及路程规划;训练样本输入强化学习模型之前,训练样本经过图像数据增强处理,训练样本输入强化学习模型之后,强化学习模型内部处理训练样本得到的样本向量经过向量数据增强处理。
通过本公开实施例的上述方法,可以利用训练后的强化学习模型进行机器人控制,包括对机器人的步态控制以及路程规划。比如利用训练后的强化学习模型,根据从A位置到B位置的环境图像,为机器人推荐一组步态控制逻辑或者一个规划的最优路径。
可选地,训练模块302还被配置为基于训练数据集中的训练样本对强化学习模型进行多轮训练:将训练样本输入强化学习模型,利用强化学习模型的近似值函数计算训练样本对应的每个动作的近似值,以根据每个动作的近似值确定训练样本对应的最优动作;利用强化学习模型的奖励值函数计算最优动作对应的奖励;基于训练样本对应的最优动作和奖励,利用强化学习模型的损失值函数计算损失值,并通过损失值更新近似值函数的参数,继续下一轮训练,直至完成训练。
具体地,奖励值函数可以为:
其中,R为奖励,Tac为当前时刻机器人从起始位置到目标位置理论上所需的平均时间,T1为当前时刻机器人从起始位置到目标位置实际上所需的平均时间,Tac可以根据机器人通行的历史数据库确定,T1为机器人实际花费的时间。
损失值函数为:
其中,s为训练样本,a 为机器人从起始位置到目标位置的过程中机器人的动作,θ为近似值函数的参数,θ有预设的初始值,/>为近似值,R为奖励。/>为强化学习中的近似值函数。
近似值最小的动作为最优动作。
可选地,获取模块301还被配置为对训练样本的部分区域进行截取,将截取掉的部分舍弃,将截取后剩余部分作为新的训练样本,其中,截取位置是随机的,截取掉的部分占训练样本的比例不大于预设阈值;在训练样本的随机的任意位置上添加噪声,得到新的训练样本,其中,添加的噪声满足预设分布;对训练样本进行小角度旋转,得到新的训练样本,其中,小角度旋转的旋转角度小于预设大小。
预设分布可以是高斯分布,均匀分布和T分布等。
可选地,训练模块302还被配置为对样本向量添加噪声,得到新的样本向量,其中,添加的噪声满足预设分布。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
图4是本公开实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
Claims (5)
1.一种基于多维度数据增强的强化学习方法,其特征在于,包括:
获取训练数据集,并对所述训练数据集中的训练样本进行图像数据增强处理;
将经过所述图像数据增强处理后的训练数据集中的训练样本作为强化学习中的状态输入到强化学习模型,利用所述强化学习模型对应的强化学习算法训练所述强化学习模型;
在将所述训练样本输入到所述强化学习模型,以对所述强化学习模型进行训练的过程中:在所述强化学习模型内部处理所述训练样本得到样本向量后,对所述样本向量进行向量数据增强处理,以基于所述向量数据增强处理后的样本向量训练所述强化学习模型;
其中,对所述样本向量进行向量数据增强处理,包括:对所述样本向量添加噪声,得到新的样本向量,其中,添加的噪声满足T分布;
其中,当所述训练数据集中的训练样本是关于视频游戏的图像的情况下,基于所述训练样本训练后的所述强化学习模型用于所述视频游戏模拟,包括对所述视频游戏中AI角色的控制;所述训练样本输入所述强化学习模型之前,所述训练样本经过所述图像数据增强处理,所述训练样本输入所述强化学习模型之后,所述强化学习模型内部处理所述训练样本得到的样本向量经过所述向量数据增强处理;
其中,当所述训练数据集中的训练样本是关于视频游戏的图像的情况下,基于所述训练样本训练所述强化学习模型,包括:将所述训练数据集中属于同一次交互的多个训练样本作为一个整体输入所述强化学习模型,输出该次交互的每个训练样本对应的动作,并计算该次交互对应的整体奖励,其中每次交互对应的整体奖励是根据所述视频游戏中该次交互的得分计算出来的;利用每次交互对应的整体奖励优化所述强化学习模型的模型参数,以完成对所述强化学习模型的训练;
其中,当所述训练数据集中的训练样本是关于机器人周围环境的图像的情况下,基于所述训练样本训练后的所述强化学习模型用于所述机器人的控制,包括对所述机器人的步态控制以及路程规划;所述训练样本输入所述强化学习模型之前,所述训练样本经过所述图像数据增强处理,所述训练样本输入所述强化学习模型之后,所述强化学习模型内部处理所述训练样本得到的样本向量经过所述向量数据增强处理;
其中,当所述训练数据集中的训练样本是关于机器人周围环境的图像的情况下,基于所述训练样本训练所述强化学习模型,包括:基于所述训练数据集中的训练样本对所述强化学习模型进行多轮训练:将所述训练样本输入所述强化学习模型,利用所述强化学习模型的近似值函数计算所述训练样本对应的每个动作的近似值,以根据每个动作的近似值确定所述训练样本对应的最优动作;利用所述强化学习模型的奖励值函数计算所述最优动作对应的奖励;基于所述训练样本对应的最优动作和奖励,利用所述强化学习模型的损失值函数计算损失值,并通过所述损失值更新所述近似值函数的参数,继续下一轮训练,直至完成训练;
所述奖励值函数为:
其中,R为奖励,Tac为当前时刻机器人从起始位置到目标位置理论上所需的平均时间,Tac根据机器人通行的历史数据库确定,T1为当前时刻机器人从起始位置到目标位置实际上所需的平均时间;
损失值函数为:
其中,s为训练样本,a 为s对应的机器人从起始位置到目标位置的过程中机器人的最优动作,θ为近似值函数的参数,为强化学习中的近似值函数,/>为最优动作a对应的近似值,R为最优动作a对应的奖励。
2.根据权利要求1所述的方法,其特征在于,对所述训练数据集中的训练样本进行图像数据增强处理,包括:
对所述训练样本的部分区域进行截取,将截取掉的部分舍弃,将截取后剩余部分作为新的训练样本,其中,截取位置是随机的,截取掉的部分占所述训练样本的比例不大于预设阈值;
在所述训练样本的随机的任意位置上添加噪声,得到新的训练样本,其中,添加的噪声满足预设分布;
对所述训练样本进行小角度旋转,得到新的训练样本,其中,所述小角度旋转的旋转角度小于预设大小。
3.一种基于多维度数据增强的强化学习装置,其特征在于,包括:
获取模块,被配置为获取训练数据集,并对所述训练数据集中的训练样本进行图像数据增强处理;
训练模块,被配置为将经过所述图像数据增强处理后的训练数据集中的训练样本作为强化学习中的状态输入到强化学习模型,利用所述强化学习模型对应的强化学习算法训练所述强化学习模型;
训练模块还被配置为在将所述训练样本输入到所述强化学习模型,以对所述强化学习模型进行训练的过程中:在所述强化学习模型内部处理所述训练样本得到样本向量后,对所述样本向量进行向量数据增强处理,以基于所述向量数据增强处理后的样本向量训练所述强化学习模型;
训练模块还被配置为对所述样本向量添加噪声,得到新的样本向量,其中,添加的噪声满足T分布;
训练模块还被配置为当所述训练数据集中的训练样本是关于视频游戏的图像的情况下,基于所述训练样本训练后的所述强化学习模型用于所述视频游戏模拟,包括对所述视频游戏中AI角色的控制;所述训练样本输入所述强化学习模型之前,所述训练样本经过所述图像数据增强处理,所述训练样本输入所述强化学习模型之后,所述强化学习模型内部处理所述训练样本得到的样本向量经过所述向量数据增强处理;
训练模块还被配置为将所述训练数据集中属于同一次交互的多个训练样本作为一个整体输入所述强化学习模型,输出该次交互的每个训练样本对应的动作,并计算该次交互对应的整体奖励,其中每次交互对应的整体奖励是根据所述视频游戏中该次交互的得分计算出来的;利用每次交互对应的整体奖励优化所述强化学习模型的模型参数,以完成对所述强化学习模型的训练;
训练模块还被配置为当所述训练数据集中的训练样本是关于机器人周围环境的图像的情况下,基于所述训练样本训练后的所述强化学习模型用于所述机器人的控制,包括对所述机器人的步态控制以及路程规划;所述训练样本输入所述强化学习模型之前,所述训练样本经过所述图像数据增强处理,所述训练样本输入所述强化学习模型之后,所述强化学习模型内部处理所述训练样本得到的样本向量经过所述向量数据增强处理;
训练模块还被配置为基于所述训练数据集中的训练样本对所述强化学习模型进行多轮训练:将所述训练样本输入所述强化学习模型,利用所述强化学习模型的近似值函数计算所述训练样本对应的每个动作的近似值,以根据每个动作的近似值确定所述训练样本对应的最优动作;利用所述强化学习模型的奖励值函数计算所述最优动作对应的奖励;基于所述训练样本对应的最优动作和奖励,利用所述强化学习模型的损失值函数计算损失值,并通过所述损失值更新所述近似值函数的参数,继续下一轮训练,直至完成训练;
所述奖励值函数为:
其中,R为奖励,Tac为当前时刻机器人从起始位置到目标位置理论上所需的平均时间,Tac根据机器人通行的历史数据库确定,T1为当前时刻机器人从起始位置到目标位置实际上所需的平均时间;
损失值函数为:
其中,s为训练样本,a 为s对应的机器人从起始位置到目标位置的过程中机器人的最优动作,θ为近似值函数的参数,为强化学习中的近似值函数,/>为最优动作a对应的近似值,R为最优动作a对应的奖励。
4.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至2中任一项所述方法的步骤。
5.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至2中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310382422.9A CN116109525B (zh) | 2023-04-11 | 2023-04-11 | 基于多维度数据增强的强化学习方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310382422.9A CN116109525B (zh) | 2023-04-11 | 2023-04-11 | 基于多维度数据增强的强化学习方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116109525A CN116109525A (zh) | 2023-05-12 |
CN116109525B true CN116109525B (zh) | 2024-01-05 |
Family
ID=86258262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310382422.9A Active CN116109525B (zh) | 2023-04-11 | 2023-04-11 | 基于多维度数据增强的强化学习方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116109525B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163238A (zh) * | 2018-12-13 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种信息预测的方法、模型训练的方法以及服务器 |
CN111091132A (zh) * | 2020-03-19 | 2020-05-01 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像识别方法、装置、计算机设备及介质 |
CN112717415A (zh) * | 2021-01-22 | 2021-04-30 | 上海交通大学 | 一种基于信息瓶颈理论的强化学习对战游戏ai训练方法 |
CN113031437A (zh) * | 2021-02-26 | 2021-06-25 | 同济大学 | 一种基于动态模型强化学习的倒水服务机器人控制方法 |
CN114093002A (zh) * | 2021-11-22 | 2022-02-25 | 河海大学 | 一种基于原型与对抗学习的单样本人脸识别方法 |
CN114974424A (zh) * | 2022-05-30 | 2022-08-30 | 平安科技(深圳)有限公司 | 基于强化学习的模型训练方法和装置、电子设备及介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102345267B1 (ko) * | 2020-10-12 | 2021-12-31 | 서울대학교산학협력단 | 목표 지향적 강화학습 방법 및 이를 수행하기 위한 장치 |
-
2023
- 2023-04-11 CN CN202310382422.9A patent/CN116109525B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163238A (zh) * | 2018-12-13 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种信息预测的方法、模型训练的方法以及服务器 |
CN111091132A (zh) * | 2020-03-19 | 2020-05-01 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像识别方法、装置、计算机设备及介质 |
CN112717415A (zh) * | 2021-01-22 | 2021-04-30 | 上海交通大学 | 一种基于信息瓶颈理论的强化学习对战游戏ai训练方法 |
CN113031437A (zh) * | 2021-02-26 | 2021-06-25 | 同济大学 | 一种基于动态模型强化学习的倒水服务机器人控制方法 |
CN114093002A (zh) * | 2021-11-22 | 2022-02-25 | 河海大学 | 一种基于原型与对抗学习的单样本人脸识别方法 |
CN114974424A (zh) * | 2022-05-30 | 2022-08-30 | 平安科技(深圳)有限公司 | 基于强化学习的模型训练方法和装置、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116109525A (zh) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109284812B (zh) | 一种基于改进dqn的视频游戏模拟方法 | |
CN108211362B (zh) | 一种基于深度q学习网络的非玩家角色战斗策略学习方法 | |
US11580378B2 (en) | Reinforcement learning for concurrent actions | |
CN111026272B (zh) | 虚拟对象行为策略的训练方法及装置、电子设备、存储介质 | |
CN111176758B (zh) | 配置参数的推荐方法、装置、终端及存储介质 | |
CN113561986A (zh) | 自动驾驶汽车决策方法及装置 | |
CN112818588B (zh) | 一种电力系统的最优潮流计算方法、装置及存储介质 | |
CN112215364A (zh) | 一种基于强化学习的敌-友深度确定性策略方法及系统 | |
CN115300910B (zh) | 基于多智能体强化学习的去混淆游戏策略模型生成方法 | |
CN109460813B (zh) | 卷积神经网络计算的加速方法、装置、设备及存储介质 | |
CN109731338B (zh) | 游戏中的人工智能训练方法及装置、存储介质及电子装置 | |
CN116109525B (zh) | 基于多维度数据增强的强化学习方法及装置 | |
CN117648548A (zh) | 基于离线-在线混合强化学习的智能决策方法和装置 | |
CN116510300A (zh) | 游戏角色的行为控制方法、装置和电子设备 | |
CN115542912A (zh) | 一种基于改进Q-learning算法的移动机器人路径规划方法 | |
CN113887708A (zh) | 基于平均场的多智能体学习方法、存储介质及电子设备 | |
CN112101563A (zh) | 基于事后经验的信赖域策略优化方法、装置及相关设备 | |
CN113743583A (zh) | 一种基于强化学习的智能体无效行为切换抑制方法 | |
Chen et al. | Modified PPO-RND method for solving sparse reward problem in ViZDoom | |
Bahdanau et al. | Jointly Learning" What" and" How" from Instructions and Goal-States | |
CN116521584B (zh) | 一种基于多智能体的mpc缓存更新方法及系统 | |
CN109948790A (zh) | 一种神经网络处理方法、装置、设备及存储介质 | |
CN116663417B (zh) | 一种虚拟地理环境角色建模方法 | |
CN115496208B (zh) | 协同模式多样化导向的无监督多智能体强化学习方法 | |
CN116603249B (zh) | 应用于角色扮演推理类游戏的大语言模型的训练方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |