CN114548229A - 训练数据增广方法、装置、设备和存储介质 - Google Patents

训练数据增广方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN114548229A
CN114548229A CN202210079037.2A CN202210079037A CN114548229A CN 114548229 A CN114548229 A CN 114548229A CN 202210079037 A CN202210079037 A CN 202210079037A CN 114548229 A CN114548229 A CN 114548229A
Authority
CN
China
Prior art keywords
augmentation
strategy
policy
training
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210079037.2A
Other languages
English (en)
Inventor
张政杰
冯京浩
陈志博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202210079037.2A priority Critical patent/CN114548229A/zh
Publication of CN114548229A publication Critical patent/CN114548229A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供了一种训练数据增广方法、装置、设备和存储介质,涉及人工智能技术领域,可以应用于云技术、人工智能、智慧交通、辅助驾驶等各种场景,方法包括获取训练样本数据和神经网络模型训练的当前迭代数;从多个增广策略集中选取训练样本数据对应的预设数量个待选策略集;获取预设数量个待选策略集各自的策略总数和各自对应的策略下限值;根据策略总数、策略下限值、当前迭代数和预设迭代数,确定各待选策略集各自对应的参考策略数量;分别从各待选策略集中选取对应参考策略数量的目标增广策略;基于选取的目标增广策略对训练样本数据进行增广处理,得到增广样本数据。本申请能够显著提高数据增广效率。

Description

训练数据增广方法、装置、设备和存储介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种训练数据增广方法、装置、设备和存储介质。
背景技术
数据增广技术,例如几何变换(随机水平翻转,旋转,裁剪等),颜色空间增强(颜色抖动等)等,被广泛应用于训练神经网络模型,能够增加训练数据集的数量,丰富数据的多样性,来缓解神经网络模型对于数据集的过拟合现象,使训练得到的模型具有更强的泛化能力。如自动数据增广的先驱工作-自动数据增强(AutoAugment,AA),设置了25个数据增广方法,使用循环神经网络(Recurrent Neural Network,RNN)控制器与强化学习算法进行策略搜索,来优化增广方法的选择过程,即在RNN的每步中预测选择哪些子策略,并以深度神经网络模型在验证集上的平均准确率(mean Average Precision,mAP)作为反馈,在数据分类和检测等任务中取得了优秀的性能。然而,AA的搜索空间高达几十个数量级,搜索过程需耗费了大量资源与时间,仅搜索一次就需要大约5000个GPU小时,策略搜索模型训练和策略选择成本极高。为提高搜索的效率,相关技术提出了诸如基于种群的增强算法(PopulationBased Augmentation,PBA)和快速自动数据增强(Fast AutoAugment,Fast AA)等方法,虽然相对AA方法来说优化了搜索速度,但是依然十分缓慢,例如PBA在缩减的CIFAR-10数据集上进行一次搜索仍需要5个GPU小时,导致数据增广效率低下,模型训练的资源占用和训练成本高昂。
因此,需要提供一种改进的数据增广方案,以提高数据增广效率,以及优化模型训练效率。
发明内容
本申请提供了一种训练数据增广方法、装置、设备和存储介质,可以有效提高数据增广效率,降低资源占用和成本。
一方面,本申请提供了一种训练数据增广方法,所述方法包括:
获取训练样本数据和神经网络模型训练的当前迭代数;
从多个增广策略集中选取所述训练样本数据对应的预设数量个待选策略集,其中,所述增广策略集为基于策略属性对多个增广策略进行分类得到的;
获取所述预设数量个待选策略集各自的策略总数和各自对应的策略下限值;
根据所述策略总数、所述策略下限值、所述当前迭代数和预设迭代数,确定各待选策略集各自对应的参考策略数量;
分别从所述各待选策略集中选取对应参考策略数量的目标增广策略;
基于选取的目标增广策略对所述训练样本数据进行增广处理,得到增广样本数据。
另一方面提供了一种训练数据增广装置,所述装置包括:
迭代次数获取模块:用于获取训练样本数据和神经网络模型训练的当前迭代数;
策略集选取模块:用于从多个增广策略集中选取所述训练样本数据对应的预设数量个待选策略集,其中,所述增广策略集为基于策略属性对多个增广策略进行分类得到的;
策略集参数获取模块:用于获取所述预设数量个待选策略集各自的策略总数和各自对应的策略下限值;
策略数量确定模块:用于根据所述策略总数、所述策略下限值、所述当前迭代数和预设迭代数,确定各待选策略集各自对应的参考策略数量;
增广策略选取模块:用于分别从所述各待选策略集中选取对应参考策略数量的目标增广策略;
增广处理模块:用于基于选取的目标增广策略对所述训练样本数据进行增广处理,得到增广样本数据。
另一方面提供了一种训练数据增广设备,所述设备包括处理器和存储器,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如上述的训练数据增广方法。
另一方面提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由处理器加载并执行以实现如上述的训练数据增广方法。
另一方面提供了一种训练数据增广终端,所述终端包括处理器和存储器,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如上述的训练数据增广方法。
另一方面提供了一种服务器,所述服务器包括处理器和存储器,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如上述的训练数据增广方法。
另一方面提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令被处理器执行时实现如上述的训练数据增广方法。
本申请提供的训练数据增广方法、装置、设备、存储介质、终端、服务器和计算机程序产品,具有如下技术效果:
本申请的技术方案首先获取训练样本数据和神经网络模型训练的当前迭代数,并从多个增广策略集中选取训练样本数据对应的预设数量个待选策略集,其中,增广策略集为基于策略属性对多个增广策略进行预先分类得到的;然后获取预设数量个待选策略集各自的策略总数和各自对应的策略下限值,并根据策略总数、策略下限值、当前迭代数和预设迭代数,确定各待选策略集各自对应的参考策略数量,进而分别从各待选策略集中选取对应参考策略数量的目标增广策略,以基于选取的目标增广策略对训练样本数据进行增广处理,得到增广样本数据。该方案在神经网络训练的输入数据预处理过程中,对增广策略进行分组,同时使用自适应方式来自适应调整增广策略的使用数量,实现数据的自适应增广,在不进行增广策略搜索的情况下,确保了优异的增广效果和模型训练效果,同时节省搜索时间,显著降低增广成本和训练资源占用。此外,本方案仅对训练样本数据进行处理,不涉及模型的修改,适用范围广,不受限于数据集类别,如可适用于几乎全部的图像检测模型,方法泛化能力强。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本申请实施例提供的一种应用环境的示意图;
图2是本申请实施例提供的一种训练数据增广方法的流程示意图;
图3是本申请实施例提供的表一中各种增广策略的可视化效果图;
图4是本申请实施例提供的另一种训练数据增广方法的流程示意图;
图5是本申请实施例提供的另一种训练数据增广方法的流程示意图;
图6是本申请实施例提供的一种训练数据增广装置的结构示意图;
图7是本申请实施例提供的一种训练数据增广方法的电子设备的硬件结构框图。
具体实施方式
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习、自动驾驶、智慧交通等几大方向。
其中,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服、车联网、自动驾驶、智慧交通等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。本申请主要涉及训练数据增广、语义理解、机器学习和深度学习等技术,具体通过下述实施例进行说明。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或子模块的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或子模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或子模块。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
自适应:指处理和分析过程中,根据处理数据的数据特征自动调整处理方法、处理顺序、处理参数、边界条件或约束条件,使其与所处理数据的统计分布特征、结构特征相适应,以取得最佳的处理效果的过程。
数据增广(Data Augmentation):是指通过从内部或者外部数据资源派生的信息来增加基础数据价值的过程。
平均准确率(mean Average Precision,mAP):目标检测中衡量识别精度的指标。多个类别目标检测中,每个类别都可以根据recall(召回率)和percision(准确率)绘制一条曲线。AP就是该曲线下的面积,mAP意思是对每一类的AP再求平均。
请参阅图1,图1是本申请实施例提供的一种应用环境的示意图,如图1所示,该应用环境可以至少包括服务器01和终端02。在实际应用中,服务器01和终端02可以通过有线或无线通信方式进行直接或间接地连接,以实现终端02与服务器01间的交互,本申请在此不做限制。
本申请实施例中,服务器01可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。具体地,服务器可以包括实体设备,可以具体包括有网络通信子模块、处理器和存储器等等,也可以包括运行于实体设备中的软体,可以具体包括有应用程序等。
具体的,云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。它将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。其中,人工智能云服务,一般也被称作是AIaaS(AI as a Service,中文为“AI即服务”)。这是目前主流的一种人工智能平台的服务方式,具体来说AIaaS平台会把几类常见的AI服务进行拆分,并在云端提供独立或者打包的服务。这种服务模式类似于开了一个AI主题商城:所有的开发者都可以通过API接口的方式来接入使用平台提供的一种或者是多种人工智能服务,部分资深的开发者还可以使用平台提供的AI框架和AI基础设施来部署和运维自已专属的云人工智能服务。
本申请实施例中,终端02可以包括智能手机、台式电脑、平板电脑、笔记本电脑、数字助理、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、智能语音交互设备、智能家电、智能可穿戴设备、车载终端设备等类型的实体设备,也可以包括运行于实体设备中的软体,例如应用程序等。具体地,终端02可以向服务器01发送训练数据增广请求或者模型训练请求,以触发服务器01进行相应的操作。服务器01可以用于接收终端发送的训练数据增广请求或者模型训练请求,响应于训练数据增广请求触发数据增广处理,或响应于模型训练请求进行神经网络模型的训练,并在训练过程中进行数据增广。
此外,可以理解的是,图1所示的仅仅是一种训练数据增广方法的应用环境,该应用环境可以包括更多或更少的节点,本申请在此不做限制。
本申请实施例涉及的应用环境,或应用环境中的本地服务端02或云服务端03的服务器,以及终端01,可以是由客户端、多个节点(接入网络中的任意形式的计算设备,如服务器、用户终端)通过网络通信的形式连接形成的分布式系统。分布式系统可以为区块链系统,该区块链系统可以提供上述的数据增广服务、模型训练服务和数据存储服务等。
以下基于上述应用环境介绍本申请的一种训练数据增广方法,应用于服务器端或终端,本申请实施例可应用于各种场景,包括但不限于云技术、人工智能、智慧交通、辅助驾驶等。本申请的技术方案可以用于各种类型的模型训练数据增广,如几乎全部种类的图像检测模型的数据增广,在模型训练的数据预处理阶段,如图像预处理阶段等,利用本申请的技术方案进行数据预处理,能够提升模型的评价指标,如图像检测模型的mAP指标等。请参考图2,图2是本申请实施例提供的一种训练数据增广方法的流程示意图,本说明书提供了如实施例或流程图的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的系统或服务器产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。具体的如图2所示,方法可以包括:
S201:获取训练样本数据和神经网络模型训练的当前迭代数。
其中,当前迭代数是指神经网络模型训练过程中,当前需要执行的迭代训练的次数,如需要进行首次迭代训练的情况下,当前迭代数为1,在需要进行第二次迭代训练的情况下,当前迭代数为2。在神经网络模型的训练过程中,在每次迭代前对训练样本集进行数据增广,或间隔的对训练样本集进行数据增广,如每迭代两次,进行一次数据增广。训练样本集中包括多个训练样本数据,训练样本数据可以包括但不限于样本图像和样本文本等,在半监督和监督学习等场景下,训练样本集中还包括训练样本数据对应的标签,例如,在图像检测领域,训练样本数据为样本图像,标签为图像检测框,用于框定样本图像中的目标检测物。
S203:从多个增广策略集中选取训练样本数据对应的预设数量个待选策略集。
具体的,可以从多个增广策略集中随机选取预设数量个待选策略集,即等概率的从各个增广策略集中选取待选策略集。其中,增广策略集为基于策略属性对多个增广策略进行分类得到的,预设数量大于等于1,可以依据任务需求设定。策略属性表征增广策略的增广特性,可以包括但不限于表征增广参数是否为自动生成的参数属性,表征是否能够与其它增广策略组合使用的排他性属性或表征增广效果强弱的增广效果属性等。基于策略属性对待选的增广策略进行分组,实现策略的分类选取,能够降低每次策略选取过程中的选择成本,进而降低资源占用。
不同数据类型或不同的任务需求中所使用的增广策略不同,示例性的,针对样本图像数据,增广策略可以包括但不限于旋转变换、翻转变换、缩放变换、平移变换、尺度变换、区域裁剪、添加噪声、分段仿射、随机掩盖、边界检测、对比度变换、颜色抖动、随机混合及复合叠加等;针对样本文本数据,增广策略可以包括但不限于单词替换、回译、加入文本噪声及文本段删除等。在一些情况下,同一增广策略可能同时存在多种策略属性,则基于各策略属性的优先级,将增广策略分类至优先级最高的策略属性对应的增广策略集中。
在一个可选的实施方式中,以下述表一中的增广策略为例,用于分类的策略属性包括参数属性、排他性属性和增广效果属性。表一示出了增广策略名、增广方式说明、策略集标识和增广参数阈值,增广参数阈值包括参数上限值和参数下限值,策略集标识表征增广策略所属的增广策略集,每个增广策略集对应一种策略属性;增广策略集A的策略属性为自动生成增广参数,即其增广参数为增广策略基于输入样本图像自动确定的,无需设定和调整,增广策略集B的策略属性为非自动生成增广参数,即其增广策略执行前需设定增广参数,增广策略集C的策略属性为仅针对检测框(bbox)进行操作,增广策略集D的策略属性为强增广方式,属于增广效果属性。其中,仅针对检测框(bbox)进行操作和强增广方式的优先级高于自动生成增广参数和非自动生成增广参数。
在一些任务中,针对增广策略集C,bbox的情况比较复杂,存在多个bbox相互遮挡、嵌套等情况,不适合与集合内的其他增广方式组合,针对增广策略集D,增广策略都是强增广,也不适合与集合内的其他增广方式组合,即针对检测框(bbox)进行操作和强增广方式同时也属于排他性属性。或者,在一些情况下,存在增广策略集中的增广策略不适合与其它任何增广策略组合。
表一
Figure BDA0003485322820000071
Figure BDA0003485322820000081
相应的,请参考图3,图3中示出了表一中各种增广策略的可视化效果图。
S205:获取预设数量个待选策略集各自的策略总数和各自对应的策略下限值。
其中,策略总数是指待选策略集中所包含的增广策略的数量,如增广策略集A的策略总数为4,策略下限值指示从相应待选策略集中需选取的目标增广策略的最低数量,如1。可以理解的,不同增广策略集对应的策略下限值可以相同,也可以不同,如都为1,或排他性属性的增广策略集的策略下限值为1,非排他性属性的增广策略集的策略下限值大于1等。在一些情况下,还可以设置策略上限值,指示从相应待选策略集中需选取的目标增广策略的最高数量,策略上限值小于等于对应的策略总数。
S207:根据策略总数、策略下限值、当前迭代数和预设迭代数,确定各待选策略集各自对应的参考策略数量。
其中,预设迭代数可以指神经网络模型训练过程中的总迭代次数,在完成预设迭代数的迭代训练后,结束模型训练过程,或者在基于模型损失判断模型是否收敛的情况下,预设迭代数也可以为预设的迭代次数上限值,即存在当前迭代数达到预设迭代数之前,模型损失已满足模型收敛条件的情况。参考策略数量为从对应的待选策略集中所要选取的增广策略的数量,如增广策略集A的参考策略数量为2,则从其中选取2个增广策略。
在待选策略集的策略属性不具有排他性的情况下,针对该待选策略集的策略选择采用自适应运算方式,参考策略数量随当前迭代数的增加而减小。如,针对上述的增广策略集A和增广策略集B,采用自适应运算方式确定参考策略数量。如此,能够随模型训练过程的推进,自适应的调整增广策略数量,进而调整训练样本集的数据量和数据差异度,在避免过拟合的同时,加速模型收敛速度,确保训练效率。相应的,请参考图4,S207可以包括下述步骤。
S301:针对每个待选策略集,根据当前迭代数和预设迭代数间的比值确定当前迭代对应的自适应因子。
具体的,自适应因子为自适应的值,在神经网路模型的训练过程中随当前迭代数的变化而动态改变,进而使基于该自适应因子计算得到的参考策略数量也自适应的改变。自适应因子的取值范围为大于零且小于等于1,且自适应因子随训练迭代次数的增加而减小,参考策略数量随自适应因子的变大而降低。
在一个可选的实施方式中,自适应因子的计算公式如下所示,其中,Factor为自适应因子,cur_epoch为当前迭代数,total_epoch为预设迭代数。
Factor=cur_epoch/total_epoch
在一些实施例中,在基于模型损失判断模型是否收敛的情况下,存在当前迭代数达到预设迭代数之前,模型损失已满足模型收敛条件的情况,且在神经网络模型的训练过程中,模型损失不断变化,进而结合当前迭代数变化和模型损失变化确定自适应因子。相应的,在确定自适应因子前,方法还包括S401:获取神经网络模型的首次迭代训练的模型损失和前一次迭代训练的模型损失。首次迭代训练的模型损失通常较大,随迭代数增加,模型损失的整体变化趋向为逐渐减小,当然也可能出现变大的异常情况。在得到首次迭代训练的模型损失和前一次迭代训练的模型损失后,S301可以具体包括下述步骤。
S3011:根据前一次迭代训练的模型损失和首次迭代训练的模型损失确定变异系数。
S3012:基于变异系数对当前迭代数和预设迭代数间的比值进行变异处理,得到自适应因子。
其中,变异系数的取值范围为大于零且小于等于1,变异系数随前一次迭代训练的模型损失的降低而减小,进而起到提高自适应因子的作用,随模型损失的升高而增大,进而起到回调自适应因子增长量的作用。在一个可选的实施方式中,变异系数k为前一次迭代训练的模型损失和首次迭代训练的模型损失间的比值,如下述公式所示,其中,cur_loss是前一次迭代训练的模型损失,init_loss是首次迭代训练的模型损失,在首次迭代训练对训练数据集进行增广处理时,令k为1。
k=cur__loss/init_loss
相应的,自适应因子的计算公式如下所示。
Factor=(cur_epoch/total_epoch)^(cur__loss/init_loss)
如此,结合迭代数和模型损失变化自适应的改变自适应因子,增加参考策略数量自适应变化的多元性,在模型损失降低时,能够与当前迭代数协同提高自适应因子值,进而减小参考策略数量,提高模型训练效率;反之,在模型损失异常升高的情况下,当前迭代数仍然在增长,进而起到提高自适应因子的作用,而由于模型损失增加,当前迭代的变异系数相较于前一次迭代的变异系数也随之增加,进而能够在一定程度上回调自适应因子的增长量,降低自适应因子的增长速度,进而降低参考策略量的降低速度,从而保证数据增广度,以提高模型训练效果。
S303:根据自适应因子、策略总数和策略下限值进行增广策略数量的自适应运算,得到各待选策略集各自对应的参考策略数量。
具体的,自适应因子越大,参考策略数量越小。这里的自适应运算可以包括但不限于余弦自适应方法、线性自适应方法或正弦自适应方法等。
在一些实施例中,采用余弦自适应方法进行参考策略数量的自适应运算。具体的,对策略总数和策略下限值进行相减处理,得到策略数量差;调用预设的余弦下降自适应方法,对策略下限值、策略数量差和自适应因子进行自适应运算,得到各待选策略集各自对应的参考策略数量。在一个可选的实施方式中,参考策略数量的自适应运算公式如下式所示。其中,N为参考策略数量,Cos为余弦函数,pi为∏;end表示自适应范围的最小值,针对参考策略数量,表征策略下限值,如可以为1;Start表示自适应范围的最大值,针对参考策略数量,Start为当前待选策略集的策略总数。具体的,参考策略数量为整数,可以理解的,若计算得到的N不是整数,则可以采用向上取整、向下取整或四舍五入等方式进行取整处理,得到整数结果。
N=end+0.5*(start-end)*(cos(pi*factor)+1)
S209:分别从各待选策略集中选取对应参考策略数量的目标增广策略。
具体的,针对每个待选策略集确定对应的参考策略数量后,从中选取参考策略数量个目标增广策略,例如,确定出的待选策略集为A,参考策略数量为2,则从中选取2个增广策略。具体的,增广策略的选取方式可以为随机等概率抽取。
在一些情况下,待选策略集的策略属性为排他性的情况下,其中的增广策略可能不能够与集合内的其它增广策略组合,或者不能与任一其它增广策略组合。相应的,针对排他性属性的待选策略集,不采用自适应的方式计算参考策略数量,在S205之前,方法还包括:获取各待选策略集各自的策略属性,进而判断该策略属性是否为排他性属性,若策略属性为排他性属性,从相应的待选策略集中选取一个待选增广策略,作为对应的目标增广策略。在预设数量为1,即仅选取一个待选策略集的情况下,直接从中选取一个目标增广策略,然后执行步骤S211。
在预设数量大于1,且排他性属性为不能与其它任一增广策略组合的情况下,从该待选策略集中选取一个增广策略,并默认其它待选待选策略集的参考策略数量为0。在预设数量大于1,且排他性属性为不能与集合内的其它增广策略组合的情况下,从该待选策略集中选取一个增广策略,并从其它待选策略集中选取对应参考策略数量的增广策略,以将选取出的增广策略作为目标增广策略;具体的,还可以在选取出各个目标增广策略后,对各增广策略进行两两组合判定,以判断其是否能够组合,若存在不能组合的策略,则择一放弃,例如,若两策略均为排它性策略,则随机择一放弃;或者,若其一为非排他性策略,另一为排它性策略,在排它性策略不能与其它任一增广策略组合的情况下,随机择一放弃,在排它性策略不能与与集合内的其它增广策略组合,但能够与非排他性策略组合的情况下,可以同时保留两策略。
S211:基于选取的目标增广策略对训练样本数据进行增广处理,得到增广样本数据。
具体的,通过选取到的至少一个目标增广策略对训练样本数据进行增广处理,进而得到增广数据,如图3中的增广图像数据。存在多个目标增广策略的情况下,可以基于随机顺序执行增广处理,或者依据选取顺序依次执行,或者还可以基于各目标增广策略的优先级,依照优先级由高至低的顺序执行。
具体的,目标增广策略的策略属性为自动生成的参数属性的情况下,如前述的增广策略集A,可以直接进行数据的增广处理,在目标增广策略的策略属性为非自动生成的参数属性的情况下,S211包括下述步骤。
S601:获取目标增广策略的增广参数阈值、参数离散化份数和离散份数下限值。
S603:根据自适应因子、参数离散化份数、离散份数下限值和增广参数阈值,确定目标增广策略对应的目标增广参数。
具体的,增广参数阈值包括参数上限值和参数下限值,如前述表一中示出的各种增广策略的参数值;参数离散化份数为针对增广策略的增广参数范围进行离散化处理的份数,如10份,以Solarize为例,将其参数范围0-256离散为10份;离散份数下限值为离散处理可取的最小离散值,如1。
一些实施例中,请参考图5,S603可以包括下述步骤。
S6031:根据自适应因子、参数离散化份数和离散份数下限值进行增广强度的自适应运算,得到目标增广策略对应的参考增广强度。
S6032:基于增广参数阈值和参数离散化份数,对参考增广强度进行强度映射处理,得到目标增广策略对应的目标增广参数。
具体的,应用于参考增广数量运算的自适应因子与用于目标增广参数运算的自适应因子可以相同,也可以不同,参考增广强度与参考增广数量的自适应运算公式可以相同或不同。相类似的,随当前迭代数的增加,或模型损失的降低,自适应因子增大,参考增广强度越小,进而自适应运算得到的目标增广参数越小,采用相应增广策略的增广程度越低。这里的自适应运算可以包括但不限于余弦自适应方法、线性自适应方法或正弦自适应方法等。
在一个可选的实施方式中,参考增广强度采用余弦自适应方法进行自适应运算,其采用的自适应运算公式与前述参考增广数量的自适应运算公式相类似,不同之处在于,其中,M为参考增广强度,的end表示自适应范围的最小值,表征离散份数下限值,如可以为1;Start表示自适应范围的最大值,表征参数离散化份数。
M=end+0.5*(start-end)*(cos(pi*factor)+1)
具体的,参考增广强度表征当前目标增广策略所对应的离散化值,例如,参数离散化份数为10,相应的,离散份数下限值可以为1,自适应强度范围为1-10,若计算得到的参考增广强度为9,则表明取10份中的9份,进行目标增广参数计算。
进一步地,根据增广参数阈值和参数离散化份数对目标增广策略的增广参数范围进行离散化运算,得到单位参数范围对应的范围值,然后,将单位参数范围对应的范围值与参考增广强度进行相乘处理,得到目标增广策略对应的目标增广参数。这里的离散化运算是指,基于预设的离散化方式对增广参数阈值(参数上限值和参数下限值)对应的增广参数范围([参数上限值,参数下限值])进行离散化计算,得到每份离散化的范围值,即单位参数范围对应的范围值。举例来说,离散化方法为离散均匀分布,离散份数下限值可以为1,自适应强度范围为1-10,则将增广参数范围均分为10份,每份即单位参数范围的范围值为(参数上限值-参数下限值)/10;以rotate_with_bboxes为例,将其参数范围0-30离散为10份,单位参数范围对应的范围值为3。进一步的,若计算得到的参考增广强度为9,则目标增广参数为27。相应的,强度映射公式如下所示。
L=M*(参数上限值-参数下限值)/参数离散化份数
S605:基于目标增广参数对训练样本数据执行目标增广策略,得到增广样本数据。
具体的,针对每个目标增广策略,在增广处理过程中的输入为训练样本数据,包括样本和对应的标签,如样本图像和对应的检测框,以及目标增广参数;输出为增广样本数据,包括增广后的样本和增广后的标签,如增广图像和增广的检测框。
如此,随模型训练过程的推进自适应调整增广强度,在确保增广效果的同时,提高模型训练效率,降低资源占用和训练成本。
在一个实施例中,以图像检测模型为例,样本训练数据为样本图像和检测框,在神经网络模型的训练过程中,将待选的增广策略分为P个增广策略集,如前述表一中P为4,增广策略集A采用余弦自适应方式计算参考增广数量,增广参数为策略执行时自动生成的,增广策略集B采用余弦自适应方式计算参考增广数量和参考增广强度,增广策略集C和D采用余弦自适应方式计算参考增广强度,参考策略数量为预设值1;然后,针对训练样本集中的训练样本数据,等概率的从P个增广策略集中选取1个待选策略集;在该待选策略集不具有排他性属性的情况下,基于前述的步骤S207确定参考策略数量,从待选策略集等概率随机选取参考策略数量个目标增广策略,在该待选策略集具有预设的策略数的情况下,从待选策略集等概率随机选取预设的策略数个目标增广策略,并采用步骤S6031的方式确定参考增广强度;针对自动生成增广参数的目标增广策略,直接输入训练样本数据,针对非自动生成增广参数的目标增广策略,在进行增广处理时,除输入训练样本数据外,还需输入参考增广强度,按抽取顺序执行目标增广策略,对训练样本数据进行增广,得到增广后的图像和检测框,以用于神经网络模型的当前迭代训练。
如前述的,AutoAugment(AA)方法定义了25个数据增广策略,使用RNN控制器与强化学习算法,利用RNN的每个step预测选择哪些子策略,需要进行RNN策略预测模型训练,且在增广前需要进行策略搜索。搜索时的搜索空间构成为:每个数据增广策略集由K个子策略集组成,每个子策略集包含N个数据增广策略,每个数据增广策略包含两个超参数,分别为使用该数据增广策略的概率P和该数据增广策略的强度M。若P和M被离散化为6份,则在训练的过程中,每次抽取一个子策略集,根据子策略集中的增广策略对训练图片进行增广。若设置K=5,N=2,则其总搜索空间大小为:(25*6*6)(5*2)=3.5*1029。相应的,针对从COCO数据集中抽取的5k数据作为训练集,采用AA方法在400块TPU上训练了8小时,即3200个TPU小时。尽管AA在模型检测效果上的提升十分显著,但消耗了大量的资源。相关工作中,采用Randaugment(RA)方法,设定了14中增广策略,增广策略数目为N,增广强度为M,并将所有选择的数据增广策略的强度设置为一个固定强度M值,从而缩减了大量的搜索空间,将搜索空间压缩到102级别,同时使用网格搜索方法作为简化搜索算法,然而,RA方法在缩减的CIFAR-10数据集上进行一次搜索仍需要5个GPU小时。也就是说,搜索速度与搜索空间密切相关,搜索空间越大,搜索时间往往越长,请参考下表二,表二示出了不同增广方法的搜索空间,以及针对CIFAR-10/100消耗的GPU小时数和针对ImageNet消耗的GPU小时数,可见相关增广方法的资源消耗和时间成本均难以满足实际任务需求。
表二
增广方法 AA FastAA PBA RA
搜索空间 10<sup>32</sup> 10<sup>32</sup> 10<sup>61</sup> 10<sup>2</sup>
CIFAR-10/100 5000 3.5 5 33
ImageNet 15000 450 - 4750
本申请的技术方案采用分组自适应的方式,同时使用自适应方式计算参考策略数量和参考增广强度,如利用余弦下降的自适应计算方法,进而在模型训练过程中自适应调整增广策略数量和增广参数强度,无需进行网络搜索过程,在确保增广效果和模型训练效果的前提下,避免耗费大量的计算资源,显著降低时间成本。
表三
增广策略 Backbone Baseline(mAP) 模型mAP
G4 RetinaNet(目标检测算法)R50 37.4 38.7(+1.3)
AA RetinaNet R50 36.9 38.4(+1.5)
G4 FasterRCNN R50 38.4 39.6(+1.2)
请参考表三,表三示出了采用AA方法和本申请的增广方法得到的模型mAP结果,其中G4表征本申请的数据增广方法。由表中数据可知,相较于AA,尽管G4的baseline从36.9提升到了37.4,但是在增加了增广策略后,模型mAP仍然提升显著。也就是说,采用本申请的方法进行数据增广,所得到的模型RetinaNet R50和FasterRCNN R50的mAP优化效果相近,但节省了大量的搜索时间。
本申请实施例还提供了一种训练数据增广装置700,如图6所示,图6示出了本申请实施例提供的一种训练数据增广装置的结构示意图,装置可以包括下述模块。
迭代次数获取模块10:用于获取训练样本数据和神经网络模型训练的当前迭代数。
策略集选取模块20:用于从多个增广策略集中选取训练样本数据对应的预设数量个待选策略集,其中,增广策略集为基于策略属性对多个增广策略进行分类得到的。
策略集参数获取模块30:用于获取预设数量个待选策略集各自的策略总数和各自对应的策略下限值。
策略数量确定模块40:用于根据策略总数、策略下限值、当前迭代数和预设迭代数,确定各待选策略集各自对应的参考策略数量。
增广策略选取模块50:用于分别从各待选策略集中选取对应参考策略数量的目标增广策略。
增广处理模块60:用于基于选取的目标增广策略对训练样本数据进行增广处理,得到增广样本数据。
在一些实施例中,策略数量确定模块40可以包括下述子模块。
自适应因子确定子模块:用于针对每个待选策略集,根据当前迭代数和预设迭代数间的比值确定当前迭代对应的自适应因子,自适应因子的取值范围为大于零且小于等于1,且自适应因子随训练迭代次数的增加而减小。
策略数量运算子模块:用于根据自适应因子、策略总数和策略下限值进行增广策略数量的自适应运算,得到各待选策略集各自对应的参考策略数量。
在一些实施例中,策略数量运算子模块可以包括下述单元。
策略数量差计算单元:用于对策略总数和策略下限值进行相减处理,得到策略数量差。
策略数量自适应运算单元:用于调用预设的余弦下降自适应方法,对策略下限值、策略数量差和自适应因子进行自适应运算,得到各待选策略集各自对应的参考策略数量。
在一些实施例中,增广处理模块60可以包括下述子模块。
策略参数获取子模块:用于获取目标增广策略的增广参数阈值、参数离散化份数和离散份数下限值。
增广参数确定子模块:用于根据自适应因子、参数离散化份数、离散份数下限值和增广参数阈值,确定目标增广策略对应的目标增广参数。
增广子模块:用于根基于目标增广参数对训练样本数据执行目标增广策略,得到增广样本数据。
在一些实施例中,增广参数确定子模块可以包括下述单元。
增广强度自适应运算单元:用于根据自适应因子、参数离散化份数和离散份数下限值进行增广强度的自适应运算,得到目标增广策略对应的参考增广强度。
映射处理单元:用于基于增广参数阈值和参数离散化份数,对参考增广强度进行强度映射处理,得到目标增广策略对应的目标增广参数。
在一些实施例中,映射处理单元可以具体用于:根据增广参数阈值和参数离散化份数对目标增广策略的增广参数范围进行离散化运算,得到单位参数范围对应的范围值;以及将单位参数范围对应的范围值与参考增广强度进行相乘处理,得到目标增广策略对应的目标增广参数。
在一些实施例中,装置还可以包括模型损失获取模块:用于获取神经网络模型的首次迭代训练的模型损失和前一次迭代训练的模型损失。
相应的,自适应因子确定子模块可以包括下述单元。
变异系数确定单元:用于根据前一次迭代训练的模型损失和首次迭代训练的模型损失确定变异系数,其中,变异系数的取值范围为大于零且小于等于1,变异系数随前一次迭代训练的模型损失的降低而减小。
变异处理单元:用于基于变异系数对当前迭代数和预设迭代数间的比值进行变异处理,得到自适应因子。
在一些实施例中,装置还可以包括下述策略属性获取模块:用于在获取预设数量个待选策略集各自的策略总数和各自对应的策略下限值之前,获取各待选策略集各自的策略属性;以及用于若策略属性为排他性属性,从相应的待选策略集中选取一个待选增广策略,作为对应的目标增广策略。
需要说明的是,上述装置实施例与方法实施例基于相同的实施方式。
本申请实施例提供了一种训练数据增广设备,该训练数据增广设备包括处理器和存储器,该存储器中存储有至少一条指令或至少一段程序,该至少一条指令或该至少一段程序由该处理器加载并执行以实现如上述方法实施例所提供的训练数据增广方法。
存储器可用于存储软件程序以及模块,处理器通过运行存储在存储器的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、功能所需的应用程序等;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器还可以包括存储器控制器,以提供处理器对存储器的访问。
本申请实施例所提供的方法实施例可以在移动终端、计算机终端、服务器或者类似的运算装置等电子设备中执行。图7是本申请实施例提供的一种训练数据增广方法的电子设备的硬件结构框图。如图7所示,该电子设备900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Units,CPU)910(处理器910可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器930,一个或一个以上存储应用程序923或数据922的存储介质920(例如一个或一个以上海量存储设备)。其中,存储器930和存储介质920可以是短暂存储或持久存储。存储在存储介质920的程序可以包括一个或一个以上模块,每个模块可以包括对电子设备中的一系列指令操作。更进一步地,中央处理器910可以设置为与存储介质920通信,在电子设备900上执行存储介质920中的一系列指令操作。电子设备900还可以包括一个或一个以上电源960,一个或一个以上有线或无线网络接口950,一个或一个以上输入输出接口940,和/或,一个或一个以上操作系统921,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
输入输出接口940可以用于经由一个网络接收或者发送数据。上述的网络具体实例可包括电子设备900的通信供应商提供的无线网络。在一个实例中,输入输出接口940包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,输入输出接口940可以为射频(RadioFrequency,RF)模块,其用于通过无线方式与互联网进行通讯。
本领域普通技术人员可以理解,图7所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,电子设备900还可包括比图7中所示更多或者更少的组件,或者具有与图7所示不同的配置。
本申请的实施例还提供了一种计算机可读存储介质,存储介质可设置于电子设备之中以保存用于实现方法实施例中一种训练数据增广方法相关的至少一条指令或至少一段程序,该至少一条指令或该至少一段程序由该处理器加载并执行以实现上述方法实施例提供的训练数据增广方法。
可选地,在本实施例中,上述存储介质可以位于计算机网络的多个网络服务器中的至少一个网络服务器。可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各种可选实现方式中提供的方法。
由上述本申请提供的训练数据增广方法、装置、设备、服务器、终端、存储介质和程序产品的实施例可见,本申请的技术方案首先获取训练样本数据和神经网络模型训练的当前迭代数,并从多个增广策略集中选取训练样本数据对应的预设数量个待选策略集,其中,增广策略集为基于策略属性对多个增广策略进行预先分类得到的;然后获取预设数量个待选策略集各自的策略总数和各自对应的策略下限值,并根据策略总数、策略下限值、当前迭代数和预设迭代数,确定各待选策略集各自对应的参考策略数量,进而分别从各待选策略集中选取对应参考策略数量的目标增广策略,以基于选取的目标增广策略对训练样本数据进行增广处理,得到增广样本数据。该方案在神经网络训练的输入数据预处理过程中,对增广策略进行分组,同时使用自适应方式来自适应调整增广策略的使用数量,实现数据的自适应增广,在不进行增广策略搜索的情况下,确保了优异的增广效果和模型训练效果,同时节省搜索时间,显著降低训练资源占用和增广成本。此外,本方案仅对训练样本数据进行处理,不涉及模型的修改,适用范围广,不受限于数据集类别,如可适用于几乎全部的图像检测模型,方法泛化能力强。
需要说明的是:上述本申请实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本申请中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备和存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指示相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (12)

1.一种训练数据增广方法,其特征在于,所述方法包括:
获取训练样本数据和神经网络模型训练的当前迭代数;
从多个增广策略集中选取所述训练样本数据对应的预设数量个待选策略集,其中,所述增广策略集为基于策略属性对多个增广策略进行分类得到的;
获取所述预设数量个待选策略集各自的策略总数和各自对应的策略下限值;
根据所述策略总数、所述策略下限值、所述当前迭代数和预设迭代数,确定各待选策略集各自对应的参考策略数量;
分别从所述各待选策略集中选取对应参考策略数量的目标增广策略;
基于选取的目标增广策略对所述训练样本数据进行增广处理,得到增广样本数据。
2.根据权利要求1所述的方法,其特征在于,所述根据所述策略总数、所述策略下限值、所述当前迭代数和预设迭代数,确定各待选策略集各自对应的参考策略数量包括:
针对每个待选策略集,根据所述当前迭代数和预设迭代数间的比值确定当前迭代对应的自适应因子,所述自适应因子的取值范围为大于零且小于等于1,且所述自适应因子随训练迭代次数的增加而减小;
根据所述自适应因子、所述策略总数和所述策略下限值进行增广策略数量的自适应运算,得到所述各待选策略集各自对应的参考策略数量。
3.根据权利要求2所述的方法,其特征在于,所述根据所述自适应因子、所述策略总数和所述策略下限值进行增广策略数量的自适应运算,得到所述各待选策略集各自对应的参考策略数量包括:
对所述策略总数和所述策略下限值进行相减处理,得到策略数量差;
调用预设的余弦下降自适应方法,对所述策略下限值、所述策略数量差和所述自适应因子进行自适应运算,得到所述各待选策略集各自对应的参考策略数量。
4.根据权利要求2所述的方法,其特征在于,所述基于选取的目标增广策略对所述训练样本数据进行增广处理,得到增广样本数据包括:
获取所述目标增广策略的增广参数阈值、参数离散化份数和离散份数下限值;
根据所述自适应因子、所述参数离散化份数、所述离散份数下限值和所述增广参数阈值,确定所述目标增广策略对应的目标增广参数;
基于所述目标增广参数对所述训练样本数据执行所述目标增广策略,得到所述增广样本数据。
5.根据权利要求4所述的方法,其特征在于,所述根据所述自适应因子、所述参数离散化份数、所述离散份数下限值和所述增广参数阈值,确定所述目标增广策略对应的目标增广参数包括:
根据所述自适应因子、所述参数离散化份数和所述离散份数下限值进行增广强度的自适应运算,得到所述目标增广策略对应的参考增广强度;
基于所述增广参数阈值和所述参数离散化份数,对所述参考增广强度进行强度映射处理,得到所述目标增广策略对应的目标增广参数。
6.根据权利要求5所述的方法,其特征在于,所述基于所述增广参数阈值和所述参数离散化份数,对所述参考增广强度进行强度映射处理,得到所述目标增广策略对应的目标增广参数包括:
根据所述增广参数阈值和所述参数离散化份数对所述目标增广策略的增广参数范围进行离散化运算,得到单位参数范围对应的范围值;
将所述单位参数范围对应的范围值与所述参考增广强度进行相乘处理,得到所述目标增广策略对应的目标增广参数。
7.根据权利要求2-6中任一项所述的方法,其特征在于,所述方法还包括:
获取所述神经网络模型的首次迭代训练的模型损失和前一次迭代训练的模型损失;
所述根据所述当前迭代数和预设迭代数间的比值确定当前迭代对应的自适应因子包括:
根据所述前一次迭代训练的模型损失和所述首次迭代训练的模型损失确定变异系数,其中,所述变异系数的取值范围为大于零且小于等于1,所述变异系数随所述前一次迭代训练的模型损失的降低而减小;
基于所述变异系数对所述当前迭代数和所述预设迭代数间的比值进行变异处理,得到所述自适应因子。
8.根据权利要求1-6中任一项所述的方法,其特征在于,在所述获取所述预设数量个待选策略集各自的策略总数和各自对应的策略下限值之前,所述方法还包括:
获取所述各待选策略集各自的策略属性;
若所述策略属性为排他性属性,从相应的待选策略集中选取一个待选增广策略,作为对应的目标增广策略。
9.一种训练数据增广装置,其特征在于,所述装置包括:
迭代次数获取模块:用于获取训练样本数据和神经网络模型训练的当前迭代数;
策略集选取模块:用于从多个增广策略集中选取所述训练样本数据对应的预设数量个待选策略集,其中,所述增广策略集为基于策略属性对多个增广策略进行分类得到的;
策略集参数获取模块:用于获取所述预设数量个待选策略集各自的策略总数和各自对应的策略下限值;
策略数量确定模块:用于根据所述策略总数、所述策略下限值、所述当前迭代数和预设迭代数,确定各待选策略集各自对应的参考策略数量;
增广策略选取模块:用于分别从所述各待选策略集中选取对应参考策略数量的目标增广策略;
增广处理模块:用于基于选取的目标增广策略对所述训练样本数据进行增广处理,得到增广样本数据。
10.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由处理器加载并执行以实现如权利要求1-8中任一项所述的训练数据增广方法。
11.一种计算机设备,所述设备包括处理器和存储器,其特征在于,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如权利要求1-8中任一项所述的训练数据增广方法。
12.一种计算机程序产品或计算机程序,其特征在于,所述计算机程序产品或计算机程序包括计算机指令,所述计算机指令被处理器执行时实现如权利要求1-8中任一项所述的训练数据增广方法。
CN202210079037.2A 2022-01-24 2022-01-24 训练数据增广方法、装置、设备和存储介质 Pending CN114548229A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210079037.2A CN114548229A (zh) 2022-01-24 2022-01-24 训练数据增广方法、装置、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210079037.2A CN114548229A (zh) 2022-01-24 2022-01-24 训练数据增广方法、装置、设备和存储介质

Publications (1)

Publication Number Publication Date
CN114548229A true CN114548229A (zh) 2022-05-27

Family

ID=81670855

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210079037.2A Pending CN114548229A (zh) 2022-01-24 2022-01-24 训练数据增广方法、装置、设备和存储介质

Country Status (1)

Country Link
CN (1) CN114548229A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117688302A (zh) * 2023-11-29 2024-03-12 博瀚智能(深圳)有限公司 数据增强操作的执行方法和装置、计算机设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117688302A (zh) * 2023-11-29 2024-03-12 博瀚智能(深圳)有限公司 数据增强操作的执行方法和装置、计算机设备

Similar Documents

Publication Publication Date Title
Chen et al. DNNOff: offloading DNN-based intelligent IoT applications in mobile edge computing
US11915104B2 (en) Normalizing text attributes for machine learning models
CN114693624B (zh) 一种图像检测方法、装置、设备及可读存储介质
CN111652329B (zh) 一种图像分类方法、装置、存储介质和电子设备
CN110807379B (zh) 一种语义识别方法、装置、以及计算机存储介质
CN113392317A (zh) 一种标签配置方法、装置、设备及存储介质
CN117216309A (zh) 模型训练方法、图像检索方法、装置、设备和介质
CN117726884B (zh) 对象类别识别模型的训练方法、对象类别识别方法及装置
CN114548229A (zh) 训练数据增广方法、装置、设备和存储介质
Yang et al. Efficient knowledge management for heterogeneous federated continual learning on resource-constrained edge devices
CN109543114A (zh) 异构信息网络链接预测方法、可读存储介质和终端
Gong et al. A superpixel segmentation algorithm based on differential evolution
CN114462526B (zh) 一种分类模型训练方法、装置、计算机设备及存储介质
CN116958033A (zh) 异常检测方法、模型训练方法、装置、设备和介质
CN116958020A (zh) 异常图像检测方法、模型训练方法、装置、设备和介质
CN116976402A (zh) 超图卷积神经网络的训练方法、装置、设备及存储介质
CN112991501B (zh) 一种数据处理方法、装置及计算机可读存储介质
CN114357242A (zh) 基于召回模型的训练评估方法及装置、设备、存储介质
CN114155410A (zh) 图池化、分类模型训练、重建模型训练方法和装置
CN113822293A (zh) 用于图数据的模型处理方法、装置、设备及存储介质
CN114332472A (zh) 一种基于图神经网络的数据处理方法及装置
CN112199571A (zh) 一种人工智能信息处理系统、方法及可读存储介质
CN117132777B (zh) 图像分割方法、装置、电子设备及存储介质
CN116993994A (zh) 一种图像特征提取模型训练方法、装置、电子设备及存储介质
CN118279967A (zh) 对象动作识别方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination