CN116363457B - 任务处理、图像分类、任务处理模型的数据处理方法 - Google Patents
任务处理、图像分类、任务处理模型的数据处理方法 Download PDFInfo
- Publication number
- CN116363457B CN116363457B CN202310281727.0A CN202310281727A CN116363457B CN 116363457 B CN116363457 B CN 116363457B CN 202310281727 A CN202310281727 A CN 202310281727A CN 116363457 B CN116363457 B CN 116363457B
- Authority
- CN
- China
- Prior art keywords
- sample
- training
- index
- data
- task processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 473
- 238000003672 processing method Methods 0.000 title claims abstract description 56
- 238000012549 training Methods 0.000 claims abstract description 517
- 238000003491 array Methods 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims description 68
- 238000000605 extraction Methods 0.000 claims description 29
- 238000003860 storage Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000008520 organization Effects 0.000 description 5
- 238000003709 image segmentation Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
本说明书实施例提供任务处理、图像分类、任务处理模型的数据处理方法,其中任务处理方法包括:获取目标任务的待处理数据;将待处理数据输入任务处理模型中,获得目标任务对应的任务处理结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集。将样本集中的数据以批量级别的方式组织,缓解多个样本集训练模型时的数据遗忘问题,通过保证样本训练数组内的数据来源于同一个样本集,加快模型训练速度,提升模型精度与任务处理结果的准确性。
Description
技术领域
本说明书实施例涉及计算机技术领域,特别涉及任务处理方法。本说明书一个或者多个实施例同时涉及一种图像分类方法,一种任务处理模型的数据处理方法,任务处理装置,一种图像分类装置,一种任务处理模型的数据处理装置,一种计算设备,一种计算机可读存储介质以及一种计算机程序。
背景技术
随着互联网技术的发展,企业或个人用户产生的数据量呈爆炸式增长,而不同场景中的数据彼此之间有交集、关联,因此,如何在对产生的海量数据进行利用,为企业或个人用户带来便利,逐渐成为研究重点。
目前,通过将相同场景的数据组织为一个数据集,利用不同场景的数据集逐个对深度学习模型进行训练,生成相应的任务处理模型。然而,在训练过程中逐个数据集的训练方式会造成训练后期随着模型参数的更新,模型逐渐忘记此前参与训练的数据,导致模型训练效率低且精度差。因此,亟需一种高效且准确的任务处理方案。
发明内容
有鉴于此,本说明书实施例提供了任务处理方法。本说明书一个或者多个实施例同时涉及一种图像分类方法,一种任务处理模型的数据处理方法,任务处理装置,一种图像分类装置,一种任务处理模型的数据处理装置,一种计算设备,一种计算机可读存储介质以及一种计算机程序,以解决现有技术中存在的技术缺陷。
本说明书实施例提供了一种任务处理方法,包括:
获取目标任务的待处理数据;
将待处理数据输入任务处理模型中,获得目标任务对应的任务处理结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集。
本说明书一个实施例提供的任务处理方法,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度,进一步提高了任务处理效率与任务处理结果的准确性。
附图说明
图1a是现有技术中第一种多域数据集的训练过程示意图;
图1b是现有技术中第二种多域数据集的训练过程示意图;
图1c是现有技术中第三种多域数据集的训练过程示意图;
图2是现有技术中任务处理模型的训练流程图;
图3是本说明书一个实施例提供的一种任务处理系统的架构图;
图4是本说明书一个实施例提供的另一种任务处理系统的框架图;
图5是本说明书一个实施例提供的一种任务处理方法的流程图;
图6是本说明书一个实施例提供的第一种任务处理方法中任务处理模型的训练流程图;
图7是本说明书一个实施例提供的第二种任务处理方法中任务处理模型的训练流程图;
图8是本说明书一个实施例提供的第三种任务处理方法中任务处理模型的训练流程图;
图9是本说明书一个实施例提供的一种图像分类方法的流程图;
图10是本说明书一个实施例提供的一种任务处理模型的数据处理方法的流程图;
图11是本说明书一个实施例提供的另一种任务处理方法的流程图;
图12是本说明书一个实施例提供的一种任务处理界面的界面示意图;
图13是本说明书一个实施例提供的一种任务处理装置的结构示意图;
图14是本说明书一个实施例提供的一种图像分类装置的结构示意图;
图15是本说明书一个实施例提供的一种任务处理模型的数据处理装置的结构示意图;
图16是本说明书一个实施例提供的另一种任务处理装置的结构示意图;
图17是本说明书一个实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本说明书。但是本说明书能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本说明书内涵的情况下做类似推广,因此本说明书不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本说明书一个或多个实施例涉及的名词术语进行解释。
多域数据集:指在不同时间阶段、不同项目场景、不同数据来源下,收集的多个数据集。如各类公开数据集以及各个项目相关的数据集。
backbone-head网络结构:指任务处理模型的网络结构,一般包括用于提取数据特征的主干层(backbone)和用于完成特定任务的处理层(head,也可称为检测头、检测层)。
单主干网-单分支模型:特指常规的模型结构。单个主干层用于提取数据特征,单个处理层用于以适配单个数据集对应的标签。
单主干网-多分支模型:特指本说明书实施例提供的任务处理模型,面对多域数据集参与模型训练的场景,多个数据集使用同一个主干网提取特征,但每个数据集单独对应一个处理层,各处理层完成对应数据集的处理任务,如在各自处理层完成各自数据集的图像目标框、图像类别的检测与识别。
datasetlevel:指多域数据集训练时的一种数据集级别的数据组织方式。在一个训练时期(epoch)内,每个数据集逐次参与模型训练,前一个数据集迭代完毕,再使用下一个数据集训练模型。所有数据集均完成对模型训练的一次参与,则认为完成一次训练时期训练。再继续转而下一个训练时期的训练。
imagelevel:指多域数据集训练时的一种数据组织方式。在一个训练时期内,所有数据集内的数据随机打乱,在每次训练的多个数据可能来源于单个数据集,也可能来源于多个数据集。且需明确每个数据来源的数据集,才能按数据集来源更新相应的网络分支的参数。
批量级别:批量级别(batch-sizelevel)指在一个训练时期内,计算各个数据集在batch-size采样量下对应的索引值(iter)数量,将所有数据集对应的索引值数量拓展成数组形式后,叠加所有数据集的索引值,将叠加后的索引值随机排序后,再逐批量级别获取每个索引值。
深度学习模型的训练过程中,需要使用相关数据集完成模型的训练。一般地,不同任务上需要收集不同领域的数据集,例如针对交通车辆场景、无人机航拍场景、城市治理场景收集的数据集不同。由于不同场景、任务的数据之间信息存在差异,无法相互覆盖,导致不同项目场景中的数据并未得到有效利用与挖掘,使得在面对新任务场景时,不得不继续面对新任务中的数据冷启动、数据收集困难、已有数据资产无法迁移至新任务的问题。并且,在深度学习模型的训练、优化过程中,既有海量的公开数据集可以使用,又有与项目相关的人工标定、私有数据集供模型训练。如何高效地结合公开、私有数据集来提升模型精度,逐渐成为研究重点。
在面对多域数据集共同训练一个模型时,数据集的组织方式对模型性能的影响较大。参见图1a,图1a示出了现有技术中第一种多域数据集的训练过程示意图。参见图1b,图1b示出了现有技术中第二种多域数据集的训练过程示意图。参见图1c,图1c示出了现有技术中第三种多域数据集的训练过程示意图。
如图1a,面对多域数据集上的处理任务,一般使用多个单主干网-单分支模型,在每个数据集上训练针对特定数据域的处理模型,如数据集A训练处理模型A,数据集B训练处理模型B,数据集C训练处理模型C。那么对于N个数据集,则需要同时训练、并维护N个处理模型,各模型之间参数、先验知识无法共享。
如图1b,对多域数据集使用同一个共享参数的共享主干层,每个数据集对应不同的处理层(数据集A对应处理层A,数据集B对应处理层B,数据集C对应处理层C),训练期间每个数据集更新各自分支的参数。但在数据集级别(datasetlevel),逐次地让数据集加入模型训练,容易造成模型对数据集的遗忘。
如图1c,采用完全随机的数据组织策略(imagelevel)训练模型,在一个时期内,将所有数据集内的数据随机打乱,在每次训练的多个数据内,数据可能来源于单个数据集,也可能来源于多个数据集。为了更新模型参数,需要统一多域数据集的数据标签,为各个数据建立统一的数据索引,明确每个数据的来源数据集,按来源数据集更新相应的处理层的参数和共享主干层的参数。在损失计算过程中,需拆分训练数据,将不同来源的数据索引至各自的处理层计算损失,无法批量计算损失,导致模型训练效率极低。并且,统一多域数据集内的标签索引,需要耗费大量时间,多个数据来源会导致批量归一化(BN,BatchNormalization)计算不准确,影响模型的收敛速度。
参见图2,图2示出了现有技术中任务处理模型的训练流程图。如图2所示,基于海量的公开数据集,训练得到预训练模型,预训练模型中包括主干层和数据集对应的处理层,其中,公开数据集对应第一处理层,项目数据集对应第二处理层。复用预训练模型的参数作为项目数据集训练的初始化参数,进一步在项目数据集上训练,针对具体的项目实现模型精度的优化。实际应用中,预训练模型中还可以包括衔接层,复用参数时,可以仅使用主干层的参数,也可以使用主干层和衔接层的参数,例如先在数据集A上训练模型得到主干层参数,再在数据集B上基于主干层参数训练,得到主干层和衔接层的参数,最后再在项目数据集上调整项目数据集对应的第二处理层,得到特定项目的处理模型。
在图2所示的训练方式中,一般都是在数据集级别,逐次地让数据集加入模型训练,如每个时期内,各数据集依次加入训练,数据集A训练完毕后,再将数据集B加入训练,直至所有数据集均在本时期内完成一次训练后,再进行下一时期的模型训练。也就是说,上述训练方式中并未同时将各类数据集加入模型训练中,会造成同一个训练时期内,更新完模型参数后,在后面数据集的训练过程中,会遗忘掉前期训练的数据集。若参与训练的数据集数量越多,则前期数据集参数被遗忘的概率越大,最终,模型仅对同一个时期内的最后一个数据集产生记忆,而在其他数据集上的精度较低,并且整个训练流程十分繁琐。
为了解决上述问题,本说明书实施例提供了一种任务处理方案,优化训练样本编排序列,对多域数据集以批量级别的方式组织,并辅以随机获取多域数据集索引的方式,既保证模型不会遗忘多域数据集内的数据,又提升了模型在多域数据集上的精度,并最终得到了高质量的模型。
具体地,获取目标任务的待处理数据;将待处理数据输入任务处理模型中,获得目标任务对应的任务处理结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集。通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度,进一步提高了任务处理效率与任务处理结果的准确性。
在本说明书中,提供了任务处理方法,本说明书同时涉及一种图像分类方法,一种任务处理模型的数据处理方法,任务处理装置,一种图像分类装置,一种任务处理模型的数据处理装置,一种计算设备,在下面的实施例中逐一进行详细说明。
参见图3,图3示出了本说明书一个实施例提供的一种任务处理系统的架构图,任务处理系统包括前端200和服务端100;
前端200,用于接收用户发送的任务处理请求,将任务处理请求发送至服务端100,其中,任务处理请求携带待处理数据;
服务端100,用于将待处理数据输入任务处理模型中,获得任务处理请求对应的任务处理结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集;将任务处理结果发送至前端200;
前端200,还用于显示服务端100发送的任务处理结果。
应用本说明书实施例的方案,服务端将待处理数据输入任务处理模型中,获得任务处理请求对应的任务处理结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集;将任务处理结果发送至前端,实现了在云侧进行任务处理,减少了前端的处理压力,并且,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度,进一步提高了任务处理效率与任务处理结果的准确性。
参见图4,图4示出了本说明书一个实施例提供的另一种任务处理系统的框架图,该系统可以包括服务端100以及多个前端200。多个前端200之间通过服务端100可以建立通信连接,在任务处理场景中,服务端100即用来在多个前端200之间提供任务处理服务,多个前端200可以分别作为发送端或接收端,通过服务端100实现实时通信。
用户通过前端200可与服务端100进行交互以接收其它前端200发送的数据,或将数据发送至其它前端200等。在任务处理场景中,可以是用户通过前端200向服务端100发布数据流,服务端100根据该数据流生成任务处理结果,并将任务处理结果推送至其他建立通信的前端中。
其中,前端200与服务端100之间通过网络建立连接。网络为前端与服务端之间提供了通信链路的介质。网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。前端200所传输的数据可能需要经过编码、转码、压缩等处理之后才发布至服务端100。
前端200可以为浏览器、APP(Application,应用程序)、或网页应用如H5(HyperText MarkupLanguage5,超文本标记语言第5版)应用、或轻应用(也被称为小程序,一种轻量级应用程序)或云应用等,前端200可以基于服务端提供的相应服务的软件开发工具包(SDK,SoftwareDevelopmentKit),如基于实时通信(RTC,RealTimeCommunication)SDK开发获得等。前端200可以部署在电子设备中,需要依赖设备运行或者设备中的某些APP而运行等。电子设备例如可以具有显示屏并支持信息浏览等,如可以是个人移动终端如手机、平板电脑、个人计算机等。在电子设备中通常还可以配置各种其它类应用,例如人机对话类应用、模型训练类应用、文本处理类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
服务端100可以包括提供各种服务的服务器,例如为多个前端提供通信服务的服务器,又如为前端上使用的模型提供支持的用于后台训练的服务器,又如对前端发送的数据进行处理的服务器等。需要说明的是,服务端100可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。服务器也可以是云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(CDN,ContentDeliveryNetwork)以及大数据和人工智能平台等基础云计算服务的云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。
值得说明的是,本说明书实施例中提供的任务处理方法一般由服务端执行,但是,在本说明书的其它实施例中,前端也可以与服务端具有相似的功能,从而执行本说明书实施例所提供的任务处理方法。在其它实施例中,本说明书实施例所提供的任务处理方法还可以是由客户端与服务端共同执行。
参见图5,图5示出了本说明书一个实施例提供的一种任务处理方法的流程图,具体包括以下步骤:
步骤502:获取目标任务的待处理数据。
本说明书一个或多个实施例中,在任务处理场景中,可以获取目标任务的待处理数据,对待处理数据进行处理,获得目标任务对应的处理结果。
具体地,目标任务为用户请求处理的任务。目标任务可以是多个场景中的任务,包括但不限于电商场景、遥感影像处理场景、资源调度场景。目标任务的待处理数据包括多种类型,包括但不限于文本数据、图像数据、音频数据和视频数据。以图像数据为例,目标任务可以是图像分割任务、图像分类任务、图像识别任务等等,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
实际应用中,获取目标任务的待处理数据的方式有多种,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。本说明书一种可能的实现方式中,可以接收用户通过前端输入的待处理数据。本说明书另一种可能的实现方式中,可以接收前端从其他数据获取设备或者数据库中读取的待处理数据。
步骤504:将待处理数据输入任务处理模型中,获得目标任务对应的任务处理结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集。
本说明书一个或多个实施例中,获取目标任务的待处理数据之后,进一步地,可以将待处理数据输入任务处理模型中,获得目标任务对应的任务处理结果。
具体地,任务处理模型为机器学习模型,机器学习模型可以理解为经过训练的程序,可以在新数据中发现模式并进行预测。这些模型表示为一个数学函数,它以输入数据的形式接收请求,对输入数据进行预测,然后提供输出作为响应。样本训练数组用于训练任务处理模型,样本训练数组中包括多个目标样本数据。
应用本说明书实施例的方案,获取目标任务的待处理数据;将待处理数据输入任务处理模型中,获得目标任务对应的任务处理结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集。通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度,进一步提高了任务处理效率与任务处理结果的准确性。
本说明书一种可选的实施例中,上述任务处理模型的训练方式,可以包括以下步骤:
获取多个样本集,其中,样本集包括多个样本数据;
针对任一样本集,根据预设分组指标,对样本集中的多个样本数据分组,获得样本集对应的索引序列;
合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列;
根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组;
利用样本训练数组,训练任务处理模型,获得训练完成的任务处理模型。
具体地,样本集也可以理解为数据集,为了提高模型的普适性,获取的多个样本集可以是多域数据集。样本数据包括多种类型,包括但不限于样本文本数据、样本图像数据、样本音频数据和样本视频数据。预设分组指标用于对样本数据分组,包括但不限于预设分组数值和预设分组比例,预设分组指标可以确定模型训练所使用的样本数量,也即batch-size。预设分组指标具体根据实际情况进行设置,在训练期间尽量占满处理器(GPU,Graphic ProcessingUnit)空间,在处理器荷载的上限之下,尽量选择更大的batch-size。样本集对应的索引序列是多个索引值组成的序列,索引序列中包括的索引值用于标识样本集,表示数据来源于哪个数据集。假设batch-size-level的数据全部来自数据集1,则索引值为1,索引值的个数根据样本集中的数据总量和预设分组指标确定。
示例性地,假设样本集1包括64个数据,样本集2包括96个数据,样本集3包括128个数据,预设分组指标等于32。则根据预设分组指标对样本集1、样本集2和样本集3进行分组,样本集1中的索引值的数量=62/32=2,则样本集1对应的索引序列1为[1,1]。同理,可以确定样本集2对应的索引序列2为[2,2,2],样本集3对应的索引序列3为[3,3,3,3]。合并索引序列1、索引序列2和索引序列3,获得合并后的索引序列为[1,1,2,2,2,3,3,3,3],随机调整合并后的索引序列中各索引值的顺序,获得乱序索引序列为[1,2,3,1,2,3,3,2,3]。
本说明书实施例中,获取多个样本集的方式有多种,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。本说明书一种可能的实现方式中,可以从其他数据获取设备或者数据库中读取多个样本集。本说明书另一种可能的实现方式中,可以获取大量样本数据,将样本数据按照场景分类,获得多个样本集。进一步地,根据预设分组指标,对样本集中的多个样本数据分组,获得样本集对应的索引序列时,可以将样本集中的多个样本数据按照预设分组指标划分为多个子数据组,一个索引值对应一个子数据组。
需要说明的是,根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组的方式有多种,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。本说明书一种可能的实现方式中,可以随机从乱序索引序列中选择一个索引值,进一步从索引值对应的样本集中提取预设分组指标个目标样本数据组成样本训练数组。本说明书另一种可能的实现方式中,为了保证每次提取的数据不重复,提高模型的训练效率,还可以根据乱序索引序列中各索引值的顺序依次选择目标索引值,进一步从目标索引值对应的样本集中提取样本训练数组。
进一步地,提取样本训练数组之后,利用样本训练数组,训练任务处理模型,获得训练完成的任务处理模型的过程中,可以将依次将样本训练数组输入任务处理模型,获得各样本训练数组对应的预测结果,根据预测结果和样本训练数组对应的样本标签,计算损失值,最后根据损失值调整模型参数,在达到预设停止条件的情况下,获得训练完成的任务处理模型。
应用本说明书实施例的方案,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度。
本说明书一种可选的实施例中,为了避免数据重复读取,可以为每个样本集配置一个迭代器,通过迭代器记录样本集当前已读取的数据或还未读取的数据,也即,上述根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组,可以包括以下步骤:
获取目标索引值对应的目标样本集的提取标签,其中,提取标签用于标识目标样本集中待提取的目标样本数据;
根据提取标签,从目标样本集中提取样本训练数组,其中,样本训练数组中的数据量与预设分组指标相同;
将乱序索引序列中目标索引值的下一索引值作为更新后的目标索引值,并根据样本训练数组中的数据量更新目标样本集的提取标签。
具体地,目标索引值是指乱序索引序列中的任一索引值。假设目标索引值为2,则获取目标样本集2的提取标签,该提取标签可以是32,表示第32个数据之后的数据为待提取的样本训练数,实际应用中提取标签还可以是32-16000,表示待提取的目标样本数据为第32个数据至第16000个数据。
需要说明的是,获取目标索引值对应的目标样本集的提取标签的方式有多种,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。本说明书一种可能的实现方式中,可以从数据库中读取目标样本集的提取标签。本说明书另一种可能的实现方式中,可以从迭代器中获取目标样本集中已读取的数据,从而生成目标样本集的提取标签。进一步地,根据提取标签,从目标样本集中提取样本训练数组时,可以根据待提取的目标样本数据中各样本数据的顺序提取batch-size个数据构成样本训练数组,还可以从待提取的目标样本数据中随机提取batch-size个数据构成样本训练数组。
实际应用中,为了避免数据重复读取,可以按照乱序索引序列中各索引值的顺序从各索引值对应的样本集中提取样本训练数组,在开始遍历乱序索引序列时,将乱序索引序列中的第一个索引值作为目标索引值,在从第一个索引值对应的样本集中提取样本训练数组之后,可以将目标索引值的下一索引值(也即乱序索引序列中的第二个索引值)作为更新后的目标索引值,在从第二个索引值对应的样本集中提取样本训练数组之后,可以将目标索引值的下一索引值(也即乱序索引序列中的第三个索引值)作为更新后的目标索引值,依此类推。同时,在任一样本集中,也可以根据每次提取的样本训练数组更新该样本集的提取标签。示例性地,假设乱序索引序列为[1,2,1],预设分组指标为32,当从乱序索引序列中读取第一个索引值1时,从样本集1中提取第1-32个数据并构建样本训练数组,当从乱序索引序列中读取第二个1时,从样本集1中提取第33-64个数据并构建样本训练数组。
应用本说明书实施例的方案,获取目标索引值对应的目标样本集的提取标签,根据提取标签,从目标样本集中提取样本训练数组,将乱序索引序列中目标索引值的下一索引值作为更新后的目标索引值,并根据样本训练数组中的数据量更新目标样本集的提取标签,通过根据目标索引值确定目标样本集,进一步根据目标样本集的提取标签确定样本训练数组,避免重复读取数据,提高模型的训练效率。
本说明书一种可选的实施例中,上述任务处理模型为单主干网-多分支模型,包括主干层和多个处理层,处理层与样本集一一对应;上述利用样本训练数组,训练任务处理模型,获得训练完成的任务处理模型,可以包括以下步骤:
将样本训练数组输入主干层,提取样本训练数组对应的样本特征;
将样本特征输入目标处理层,获得样本训练数组对应的预测结果,其中,目标处理层为样本训练数组所属样本集对应的处理层;
根据预测结果和样本训练数组对应的样本标签,计算训练损失值;
根据训练损失值,调整主干层和目标处理层的参数,在达到预设停止条件的情况下,获得训练完成的任务处理模型。
具体地,主干层可以是多种特征提取网络,包括但不限于卷积神经网络(CNN,ConvolutionalNeuralNetwork)、预训练模型(transformer模型)。处理层可以是多种神经网络,包括但不限于卷积神经网络,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。预设停止条件包括但不限于训练损失值小于或等于预设阈值、训练次数达到预设迭代次数、乱序索引序列遍历完成,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
实际应用中,可以根据具体的任务在任务处理模型中增加用于衔接主干层和处理层的衔接层(neck,也可称为颈脖层),衔接层可以是多种神经网络,包括但不限于卷积神经网络,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
示例性地,用于处理图像分类任务的任务处理模型,可以是包括主干层和多个处理层的backbone-head网络结构。用于处理图像检测任务、图像分割任务的任务处理模型,可以是包括主干层、衔接层和多个处理层的backbone-neck-head网络结构。
需要说明的是,计算训练损失值时,按照预测结果和样本标签的差异,进行损失的梯度回转,将预测结果沿着处理层至主干层的路径逐步回转。由于所有样本集共享主干层的参数,那么所有样本训练数组对应的训练损失值均可参与主干层的参数更新,但处理层和样本集是绑定的,各处理层的参数只由样本训练数组对应的训练损失值更新。实际应用中,当任务处理模型中包括衔接层时,所有样本集共享主干层和衔接层的参数,所有样本训练数组对应的训练损失值均可参与主干层和衔接层的参数更新。
示例性地,从样本集1提取的样本训练数组1对应的训练损失值1用于更新主干层、衔接层以及样本集1对应的处理层1的参数;从样本集2提取的样本训练数组2对应的训练损失值2用于更新主干层、衔接层以及样本集2对应的处理层2的参数。
实际应用中,计算训练损失值的函数有很多,如交叉熵损失函数、L1范数损失函数、最大损失函数、均方误差损失函数、对数损失函数等,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。优选地,可以利用交叉熵损失函数计算训练损失值。通过利用交叉熵损失函数,计算预测结果和样本训练数组的交叉熵作为训练损失值,提高了计算训练损失值的效率,从而提高了任务处理模型的训练效率。
应用本说明书实施例的方案,所有样本集共享、并共同更新主干层的参数,各个样本集单独更新各自对应的处理层的参数,使得各个样本集维护各自对应处理层的参数即可,无需建立统一的类别索引。并且,由于任务处理模型为单主干网-多分支的形式,单主干网的参数更新来源于多域样本集的联合训练,即融合了多域样本集的领域知识,最终输出的主干层具有较强的特征提取能力,也可迁移至其他下游任务,作为预训练模型的参数。
本说明书第一种可选的实施例中,预设停止条件包括训练损失值小于或等于预设阈值;上述根据训练损失值,调整主干层和目标处理层的参数,在达到预设停止条件的情况下,获得训练完成的任务处理模型,可以包括以下步骤:
根据训练损失值,调整主干层和目标处理层的参数,并返回执行根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组的步骤;
在乱序索引序列遍历完成且训练损失值大于预设阈值的情况下,返回执行合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列的步骤;
在训练损失值小于或等于预设阈值的情况下,停止训练,获得训练完成的任务处理模型。
需要说明的是,根据预测结果和样本训练数组对应的样本标签,计算训练损失值后,将训练损失值与预设阈值进行比较,预设阈值具体根据实际情况进行选择,本说明书实施例对此不作任何限定。若训练损失值大于预设阈值,则说明预测结果和样本标签之间的差异较大,任务处理模型对于处理结果的预测能力较差,此时可以调整任务处理模型的参数,并返回执行根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组的步骤,直至训练损失值小于或等于预设阈值,则说明预测结果和样本标签之间的差异较小,任务处理模型对于处理结果的预测能力较强,可以停止训练,获得训练完成的任务处理模型。
实际应用中,确定训练损失值是否小于或等于预设阈值的过程中,可能会出现乱序索引序列遍历完成后,训练损失值仍大于预设阈值的情况,在该情况下,可以返回执行合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列的步骤,重新生成乱序索引序列,再对任务处理模型训练,直至训练损失值小于或等于预设阈值,停止训练,获得训练完成的任务处理模型。
应用本说明书实施例的方案,通过将训练损失值和预设阈值进行比较,根据比较结果确定任务处理模型是否训练成功,保证了训练完成的任务处理模型的精度。
本说明书第二种可选的实施例中,预设停止条件包括训练次数达到预设迭代次数;上述根据训练损失值,调整主干层和目标处理层的参数,在达到预设停止条件的情况下,获得训练完成的任务处理模型,可以包括以下步骤:
根据训练损失值,调整主干层和目标处理层的参数,并返回执行根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组的步骤;
在乱序索引序列遍历完成且训练次数未达到预设迭代次数的情况下,返回执行合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列的步骤;
在训练次数达到预设迭代次数的情况下,停止训练,获得训练完成的任务处理模型。
需要说明的是,除了比较训练损失值和预设阈值的大小关系之外,还可以结合预设迭代次数,确定当前的任务处理模型是否训练完成,预设迭代次数具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
具体地,若训练损失值小于或等于预设阈值,则说明预测结果和样本标签之间的差异较小,任务处理模型对于处理结果的预测能力较强,可以停止训练,获得训练完成的任务处理模型。若训练损失值大于预设阈值,则说明任务处理模型对于处理结果的预测能力较差,可以调整任务处理模型的参数,并返回执行根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组的步骤,继续对任务处理模型进行训练,在达到预设迭代次数的情况下,停止迭代,得到完成训练的任务处理模型。
实际应用中,确定训练次数是否达到预设迭代次数的过程中,可能会出现乱序索引序列遍历完成后,训练次数仍未达到预设迭代次数的情况,在该情况下,可以返回执行合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列的步骤,重新生成乱序索引序列,再对任务处理模型训练,直至训练次数达到预设迭代次数,停止训练,获得训练完成的任务处理模型。
应用本说明书实施例的方案,将训练次数与预设迭代次数进行比较,避免了因训练损失值一直大于预设阈值,需要一直对任务处理模型进行训练的情况,在训练次数达到预设迭代次数后,若完成训练的任务处理模型的预测能力仍然较差,则可以重新训练任务处理模型,减少时间浪费。
本说明书第三种可选的实施例中,预设停止条件包括乱序索引序列遍历完成;上述根据训练损失值,调整主干层和目标处理层的参数,在达到预设停止条件的情况下,获得训练完成的任务处理模型,可以包括以下步骤:
根据训练损失值,调整主干层和目标处理层的参数,并返回执行根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组的步骤;
在乱序索引序列遍历完成的情况下,停止训练,获得训练完成的任务处理模型。
需要说明的是,除了比较训练损失值比较训练损失值和预设阈值的大小关系、结合迭代次数之外,还可以根据乱序索引序列判断当前的任务处理模型是否训练完成。
示例性地,假设乱序索引序列为[1,2,1],则从样本集1中提取样本训练数组1,将样本训练数组1输入任务处理模型中,获得样本训练数组1的预测结果1,根据预测结果1和样本训练数组1的样本标签1,计算训练损失值1,根据训练损失值1调整主干层和处理层1的参数。返回从样本集2中提取样本训练数组2,将样本训练数组2输入任务处理模型中,获得样本训练数组2的预测结果2,根据预测结果2和样本训练数组2的样本标签2,计算训练损失值2,根据训练损失值2调整主干层和处理层2的参数。返回从样本集1中提取样本训练数组3,将样本训练数组3输入任务处理模型中,获得样本训练数组3的预测结果3,根据预测结果3和样本训练数组3的样本标签3,计算训练损失值3,根据训练损失值3调整主干层和处理层3的参数,此时,乱序索引序列遍历完成,停止训练,获得训练完成的任务处理模型。
应用本说明书实施例的方案,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,在乱序索引序列遍历完成的情况下,停止训练,加快了模型训练速度,提升了模型精度。
值得说明的是,在利用多个样本集训练任务处理模型之后,还可以利用指定样本集对训练后的任务处理模型进一步优化,也即,针对任务处理模型的训练方式可以拓展为在多个样本集联合训练的基础上结合指定数据集优化的方案,在下面的实施例中进行详细说明。
本说明书一种可选的实施例中,获取的多个样本集中包括原始样本集和指定样本集;上述根据预设分组指标,对样本集中的多个样本数据分组,获得样本集对应的索引序列之后,还可以包括以下步骤:
根据指定样本集对应的指定索引序列,从指定样本集中提取指定样本训练数组;
合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列,可以包括以下步骤:
合并原始样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列;
利用样本训练数组,训练任务处理模型,获得训练完成的任务处理模型,可以包括以下步骤:
利用样本训练数组和指定样本训练数组,训练任务处理模型,获得训练完成的任务处理模型。
具体地,原始样本集可以是多个,多个原始样本集可以来自不同领域、不同场景,也即原始样本集可以是多域样本集。指定样本集是指对利用原始样本集训练得到的模型进行优化的样本集,例如,获得利用原始样本集训练任务处理模型之后,想要优化任务处理模型,使得任务处理模型在图像领域表现更好,则可以获取图像领域的指定样本集,利用指定样本集对任务处理模型进行优化,获得最终训练完成的任务处理模型。
需要说明的是,在利用指定样本集优化任务处理模型时,指定样本集单独维护一个索引序列,不参与后续合并乱序的处理过程。
实际应用中,利用样本训练数组和指定样本训练数组训练任务处理模型时,可以先利用样本训练数组训练任务处理模型,在达到预设停止条件的情况下,获得预训练完成的任务处理模型,进一步地,利用指定样本训练数组对预训练完成的任务处理模型进行训练,获得最终完成训练的任务处理模型。其中,预设停止条件包括但不限于训练损失值小于或等于预设阈值、训练次数达到预设迭代次数、乱序索引序列遍历完成,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
应用本说明书实施例的方案,对要在后续项目领域中落地的指定样本集单独维护一个指定索引序列,不仅利用了多个原始样本集训练的优势,又在训练后期,通过指定样本集强化任务处理模型对该项目领域数据的理解,保证模型不会遗忘指定样本集中的数据,提高了模型在指定样本集上的表现。
本说明书一种可选的实施例中,上述利用样本训练数组和指定样本训练数组,训练任务处理模型,获得训练完成的任务处理模型,可以包括以下步骤:
利用样本训练数组训练任务处理模型,在乱序索引序列遍历完成的情况下,获得预训练完成的任务处理模型;
将指定样本训练数组输入预训练完成的任务处理模型,获得指定样本训练数组对应的指定预测结果;
根据指定预测结果和指定样本训练数组对应的指定样本标签,计算指定训练损失值;
根据指定训练损失值,调整指定处理层的参数,在达到训练停止条件的情况下,获得训练完成的任务处理模型,其中,指定处理层为指定样本集对应的处理层。
具体地,训练停止条件包括但不限于指定训练损失值小于或等于指定预设阈值、指定训练次数达到指定预设迭代次数、乱序索引序列遍历完成,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
需要说明的是,本说明书实施例的具体实现方式与上述“利用样本训练数组,训练任务处理模型,获得训练完成的任务处理模型”的实现方式相同,本说明书便不再进行赘述。
应用本说明书实施例的方案,通过原始样本集训练任务处理模型,获得预训练完成的任务处理模型,得到了高质量的模型预训练参数,进一步将预训练参数迁移至下游任务,缓解了下游新任务中数据冷启动的问题,并且,可以利用指定样本集优化任务训练模型,直接应用在指定样本集对应的项目场景,使得任务处理过程更加符合实际场景,提高了任务处理结果的准确性。
本说明书一种可选的实施例中,为了保证目标任务的处理准确性,在将目标任务的待处理数据输入任务处理模型之前,还可以将任务处理模型的模型参数迁移至目标任务,利用目标任务对应的下游任务样本集对任务处理模型进行调整,获得在目标任务上表现更好的任务处理模型,也即,上述将待处理数据输入任务处理模型中,获得目标任务对应的任务处理结果之前,还可以包括以下步骤:
获取目标任务对应的下游任务样本集;
利用下游任务样本集对任务处理模型进行调整,获得更新后的任务处理模型;
将待处理数据输入任务处理模型中,获得目标任务对应的任务处理结果,可以包括以下步骤:
将待处理数据输入更新后的任务处理模型中,获得目标任务对应的任务处理结果。
具体地,下游任务样本集是指与目标任务属于同一任务领域的样本集,例如目标任务是图像分割任务,则下游任务样本集为图像分割领域的样本集,又如目标任务是图像分类任务,则下游任务样本集为图像分类领域的样本集。
实际应用中,获取目标任务对应的下游任务样本集的方式有多种,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。本说明书一种可能的实现方式中,可以接收用户通过发送的下游任务样本集。本说明书另一种可能的实现方式中,可以从其他数据获取设备或者数据库中读取下游任务样本集。
需要说明的是,“利用下游任务样本集对任务处理模型进行调整,获得更新后的任务处理模型”的实现方式,与上述任务处理模型的训练方式相同,本说明书实施例便不再进行赘述。
应用本说明书实施例的方案,通过将任务处理模型的模型参数迁移至下游目标任务,利用目标任务对应的下游任务样本集再次对任务处理模型进行调整,可以提高任务处理模型在目标任务上的处理能力,进一步提高了任务处理结果的准确性。
参见图6,图6示出了本说明书一个实施例提供的第一种任务处理方法中任务处理模型的训练流程图。本说明书实施例提出了一种多域数据集联合训练,以优化模型参数的方法。具体地,本方案在训练中,同时读入N个公开数据集和M个项目数据集,在模型结构上,所有数据集共享主干层的参数,针对不同数据集分别配置各自的处理层,也即单主干网-多分支的模型。如公开数据集N对应公开处理层N,项目数据集M对应项目处理层M。示例性地,假设公开数据集1为检测标准化数据集(VOC,VisualObjectClasses),其包含20个目标检测类的类别标签,那么公开数据集1对应的公开处理层1则负责完成检测标准化数据集共计20个目标类的检测、识别任务。其他数据集情况类似。特别地,公开数据集、项目数据集可被同时加载,并同时训练,共同更新模型的主干层的参数。而针对作为检测分支的处理层,则基于各自数据集下计算的损失更新相应处理层参数。
参见图7,图7示出了本说明书一个实施例提供的第二种任务处理方法中任务处理模型的训练流程图,具体包括:
训练数据准备阶段:加载包括N各公开数据集和M各项目数据集的全量数据集,并设置单主干网-多分支的模型训练所使用的batch-size(如4个16G的GPU下,batch-size=32)。计算每个数据集在batch-size下所需加载的索引值数量(如公开数据集1包含16000张图像,则需加载16000/32=500个索引值)。按索引值的数量生成对应的索引序列,获得N个公开索引序列和M个项目索引序列(如以上公开数据集1共需要500个索引值,则生成包含500个1的索引序列,其中,1用于标识公开数据集1)。
模型训练阶段:在训练阶段的每个训练时期下:将所有数据集按索引值数量生成的索引序列合并并随机打乱,生成乱序索引序列。为每个数据集生成并维护一个迭代器,按乱序索引序列的顺序,从乱序索引序列中获取一个索引值,读取该索引值对应数据集中batch-size数量的训练数据,构成样本训练数组。利用样本训练数组训练模型,更新主干层的参数,并根据索引值更新对应处理层的参数。参数更新完成后,返回按乱序索引序列的顺序,从乱序索引序列中获取一个索引值,逐batch-sizelevel更新模型参数,直至乱序索引序列读取完毕,即完成一个时期的多域数据集训练;在完成预先设置的epoch训练次数后,模型训练完毕。
应用本说明书实施例的方案,针对多域数据集下的单主干网-多分支的模型训练,提出了一种batch-sizelevel的数据随机编排与训练方式,保证在多个数据集的训练中,batch-size内数据集来自同一个数据集,共同更新一个特定分支(处理层)的参数。且每个epoch内乱序索引序列均可随机生成,保证了数据训练的随机性,避免数据遗忘问题,保证模型批量归一化参数计算的准确性,提升了模型的鲁棒性。
参见图8,图8示出了本说明书一个实施例提供的第三种任务处理方法中任务处理模型的训练流程图,针对任务处理模型的训练方式可以拓展为在多个数据集联合训练的基础上结合指定数据集优化的方案,具体包括:
训练数据准备阶段:加载包括N各公开数据集和M各项目数据集的全量数据集,并设置单主干网-多分支的模型训练所使用的batch-size(如4个16G的GPU下,batch-size=32)。计算每个数据集在batch-size下所需加载的索引值数量(如公开数据集1包含16000张图像,则需加载16000/32=500个索引值)。按索引值的数量生成对应的索引序列,获得N个公开索引序列和M个项目索引序列(如以上公开数据集1共需要500个索引值,则生成包含500个1的索引序列,其中,1用于标识公开数据集1)。
模型训练阶段:在训练阶段的每个训练时期下:将所有数据集中,除项目数据集M(指定数据集)的其他多域数据集,按索引值数量生成的索引序列合并并随机打乱,生成乱序索引序列。将项目数据集M单独维护一个指定索引序列。为每个数据集生成并维护一个迭代器,按乱序索引序列的顺序,从乱序索引序列中获取一个索引值,读取该索引值对应数据集中batch-size数量的训练数据,构成样本训练数组。利用样本训练数组训练模型,更新主干层的参数,并根据索引值更新对应处理层的参数。参数更新完成后,返回按乱序索引序列的顺序,从乱序索引序列中获取一个索引值,逐batch-sizelevel更新模型参数,直至乱序索引序列读取完毕。在乱序索引序列读取完毕后,从指定索引序列中获取指定索引值,逐batch-sizelevel更新项目处理层M的参数。需要说明的是获取指定索引值,逐batch-sizelevel更新项目处理层M的参数时,还可以同时更新主干层的参数。在指定索引序列遍历完成后,完成一个时期的多域数据集训练;在完成预先设置的epoch训练次数后,模型训练完毕。
应用本说明书实施例的方案,利用多域数据集联合训练得到的主干网,具有更强的特征提取能力,更加适合迁移至其他下游任务中,用作预训练的模型参数,batch-sizelevel级的数据组织方式,既缓解了多域数据集训练时的数据遗忘问题,又通过保证batch-size内来源于同一个域的训练数据,加快了训练速度与提升了模型精度。并且,将多域数据集中,需直接在项目中落地使用的数据集M单独拎出来训练。每个epoch内,先使用多域数据集联合训练,更新模型参数后,再专门在项目数据集M上训练,不仅利用了多域数据集训练的优势,又在每个epoch的后段,通过项目数据集M强化了对该项目域数据的理解,以保证模型不会遗忘此数据集。
下述结合附图9,以本说明书提供的任务处理方法在图像处理领域的应用为例,对所述任务处理方法进行进一步说明。参见图9,图9示出了本说明书一个实施例提供的一种图像分类方法的流程图,具体包括以下步骤:
步骤902:获取待分类图像。
步骤904:将待分类图像输入任务处理模型中,获得待分类图像对应的图像分类结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集。
需要说明的是,步骤902和步骤904的具体实现方式与上述步骤502和步骤504的实现方式相同,本说明书实施例便不再进行赘述。
应用本说明书实施例的方案,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度,进一步提高了图像分类效率与图像分类结果的准确性
参见图10,图10示出了本说明书一个实施例提供的一种任务处理模型的数据处理方法的流程图,该方法应用于云侧设备,具体包括以下步骤:
步骤1002:获取多个样本集。
步骤1004:针对任一样本集,根据预设分组指标,对样本集中的多个样本数据分组,获得样本集对应的索引序列。
步骤1006:合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列;
步骤1008:根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组;
步骤1010:根据样本训练数组,对任务处理模型进行训练,在达到预设停止条件的情况下,获得训练完成的任务处理模型的模型参数;
步骤1012:向端侧设备发送训练完成的任务处理模型的模型参数。
需要说明的是,样本集包括多个样本数据,索引序列包括索引值,索引值用于标识样本集。步骤1002至步骤1012的具体实现方式与图5所示的任务处理方法中任务处理模型的训练方式相同,本说明书实施例便不再进行赘述。实际应用中,云侧设备获得训练完成的任务处理模型的模型参数之后,可以将训练完成的任务处理模型的模型参数发送至端侧设备,端侧设备接收到训练完成的任务处理模型的模型参数之后,可以根据模型参数还原得到任务处理模型,进一步在本地利用任务处理模型实现任务处理。
应用本说明书实施例的方案,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度。并且,在云侧设备记性任务处理模型的训练,减轻了端侧设备的处理压力。
参见图11,图11示出了本说明书一个实施例提供的另一种任务处理方法的流程图,该方法应用于云侧设备,具体包括以下步骤:
步骤1102:接收用户通过前端发送的任务处理请求。
步骤1104:将待处理数据输入任务处理模型中,获得任务处理请求对应的任务处理结果。
步骤1106:将任务处理结果发送至前端,以使前端显示任务处理结果。
具体地,任务处理请求携带待处理数据;任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集;需要说明的是,步骤1102至步骤1106的具体实现方式与图5所示的任务处理方法中任务处理模型的训练方式相同,本说明书实施例便不再进行赘述。
应用本说明书实施例的方案,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度,并且,在云侧设备进行任务处理,减轻了前端的处理压力。
参见图12,图12示出了本说明书一个实施例提供的一种任务处理界面的界面示意图。任务处理界面分为任务处理请求输入界面和任务处理结果展示界面。任务处理请求输入界面中包括任务处理请求输入框、“确定”控件以及“取消”控件。任务处理结果展示界面中包括任务处理结果展示框。用户通过前端显示的任务处理请求输入框输入任务处理请求,点选“确定”控件,服务端接收前端发送的任务处理请求,将任务处理请求携带的待处理数据输入任务处理模型中,获得任务处理结果,将任务处理结果发送至前端,以使前端在任务处理结果展示框中显示任务处理结果。实际应用中,用户对控件进行操作的方式包括点击、双击、触控、鼠标悬停、滑动、长按、语音控制或摇一摇等任一方式,具体根据实际情况进行选择,本说明书实施例对此不作任何限定。
需要说明的是,本说明书实施例中可能会涉及到对用户数据的使用,在实际应用中,可以在符合所在国的适用法律法规要求的情况下(例如,用户明确同意,对用户切实通知,等),在适用法律法规允许的范围内在本文描述的方案中使用用户特定的个人数据。
与上述方法实施例相对应,本说明书还提供了任务处理装置实施例,图13示出了本说明书一个实施例提供的一种任务处理装置的结构示意图。如图13所示,该装置包括:
第一获取模块1302,被配置为获取目标任务的待处理数据;
第一输入模块1304,被配置为将待处理数据输入任务处理模型中,获得目标任务对应的任务处理结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集。
可选地,该装置还包括:任务处理模型训练模块,被配置为获取多个样本集,其中,样本集包括多个样本数据;针对任一样本集,根据预设分组指标,对样本集中的多个样本数据分组,获得样本集对应的索引序列;合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列;根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组;利用样本训练数组,训练任务处理模型,获得训练完成的任务处理模型。
可选地,任务处理模型训练模块,进一步被配置为获取目标索引值对应的目标样本集的提取标签,其中,提取标签用于标识目标样本集中待提取的目标样本数据;根据提取标签,从目标样本集中提取样本训练数组,其中,样本训练数组中的数据量与预设分组指标相同;将乱序索引序列中目标索引值的下一索引值作为更新后的目标索引值,并根据样本训练数组中的数据量更新目标样本集的提取标签。
可选地,任务处理模型包括主干层和多个处理层,处理层与样本集一一对应;任务处理模型训练模块,进一步被配置为将样本训练数组输入主干层,提取样本训练数组对应的样本特征;将样本特征输入目标处理层,获得样本训练数组对应的预测结果,其中,目标处理层为样本训练数组所属样本集对应的处理层;根据预测结果和样本训练数组对应的样本标签,计算训练损失值;根据训练损失值,调整主干层和目标处理层的参数,在达到预设停止条件的情况下,获得训练完成的任务处理模型。
可选地,预设停止条件包括训练损失值小于或等于预设阈值;任务处理模型训练模块,进一步被配置为根据训练损失值,调整主干层和目标处理层的参数,并返回执行根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组的步骤;在乱序索引序列遍历完成且训练损失值大于预设阈值的情况下,返回执行合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列的步骤;在训练损失值小于或等于预设阈值的情况下,停止训练,获得训练完成的任务处理模型。
可选地,预设停止条件包括训练次数达到预设迭代次数;任务处理模型训练模块,进一步被配置为根据训练损失值,调整主干层和目标处理层的参数,并返回执行根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组的步骤;在乱序索引序列遍历完成且训练次数未达到预设迭代次数的情况下,返回执行合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列的步骤;在训练次数达到预设迭代次数的情况下,停止训练,获得训练完成的任务处理模型。
可选地,多个样本集中包括原始样本集和指定样本集;任务处理模型训练模块,进一步被配置为根据指定样本集对应的指定索引序列,从指定样本集中提取指定样本训练数组;合并原始样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列;利用样本训练数组和指定样本训练数组,训练任务处理模型,获得训练完成的任务处理模型。
可选地,任务处理模型训练模块,进一步被配置为利用样本训练数组训练任务处理模型,在乱序索引序列遍历完成的情况下,获得预训练完成的任务处理模型;将指定样本训练数组输入预训练完成的任务处理模型,获得指定样本训练数组对应的指定预测结果;根据指定预测结果和指定样本训练数组对应的指定样本标签,计算指定训练损失值;根据指定训练损失值,调整指定处理层的参数,在达到训练停止条件的情况下,获得训练完成的任务处理模型,其中,指定处理层为指定样本集对应的处理层。
可选地,该装置还包括:调整模块,被配置为获取目标任务对应的下游任务样本集;利用下游任务样本集对任务处理模型进行调整,获得更新后的任务处理模型;第一输入模块1304,进一步被配置为将待处理数据输入更新后的任务处理模型中,获得目标任务对应的任务处理结果。
应用本说明书实施例的方案,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度,进一步提高了任务处理效率与任务处理结果的准确性。
上述为本实施例的一种任务处理装置的示意性方案。需要说明的是,该任务处理装置的技术方案与上述的任务处理方法的技术方案属于同一构思,任务处理装置的技术方案未详细描述的细节内容,均可以参见上述任务处理方法的技术方案的描述。
与上述方法实施例相对应,本说明书还提供了图像分类装置实施例,图14示出了本说明书一个实施例提供的一种图像分类装置的结构示意图。如图14所示,该装置包括:
第二获取模块1402,被配置为获取待分类图像;
第二输入模块1404,被配置为将待分类图像输入任务处理模型中,获得待分类图像对应的图像分类结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集。
应用本说明书实施例的方案,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度,进一步提高了图像分类效率与图像分类结果的准确性。
上述为本实施例的一种图像分类装置的示意性方案。需要说明的是,该图像分类装置的技术方案与上述的图像分类方法的技术方案属于同一构思,图像分类装置的技术方案未详细描述的细节内容,均可以参见上述图像分类方法的技术方案的描述。
与上述方法实施例相对应,本说明书还提供了应用于云侧设备的任务处理模型的数据处理装置实施例,图15示出了本说明书一个实施例提供的一种任务处理模型的数据处理装置的结构示意图。如图15所示,该装置包括:
第三获取模块1502,被配置为获取多个样本集,其中,样本集包括多个样本数据;
分组模块1504,被配置为针对任一样本集,根据预设分组指标,对样本集中的多个样本数据分组,获得样本集对应的索引序列,其中,索引序列包括索引值,索引值用于标识样本集;
合并模块1506,被配置为合并多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列;
提取模块1508,被配置为根据乱序索引序列,从各索引值对应的样本集中提取样本训练数组;
训练模块1510,被配置为根据样本训练数组,对任务处理模型进行训练,在达到预设停止条件的情况下,获得训练完成的任务处理模型的模型参数;
第一发送模块1512,被配置为向端侧设备发送训练完成的任务处理模型的模型参数。
应用本说明书实施例的方案,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度。
上述为本实施例的一种任务处理模型的数据处理装置的示意性方案。需要说明的是,该任务处理模型的数据处理装置的技术方案与上述应用于云侧设备的任务处理模型的数据处理方法的技术方案属于同一构思,任务处理模型的数据处理装置的技术方案未详细描述的细节内容,均可以参见上述应用于云侧设备的任务处理模型的数据处理方法的技术方案的描述。
与上述方法实施例相对应,本说明书还提供了应用于云侧设备的任务处理装置实施例,图16示出了本说明书一个实施例提供的另一种任务处理装置的结构示意图。如图16所示,该装置包括:
接收模块1602,被配置为接收用户通过前端发送的任务处理请求,其中,任务处理请求携带待处理数据;
第三输入模块1604,被配置为将待处理数据输入任务处理模型中,获得任务处理请求对应的任务处理结果,其中,任务处理模型基于多个样本训练数组训练得到,样本训练数组基于乱序索引序列中的索引值从多个样本集中提取得到,乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,索引序列包括索引值,索引值用于标识样本集;
第二发送模块1606,被配置为将任务处理结果发送至前端,以使前端显示任务处理结果。
应用本说明书实施例的方案,通过利用样本训练数组训练模型,实现了将样本集中的数据以批量级别的方式组织,缓解了多个样本集训练模型时出现的数据遗忘问题,又通过保证样本训练数组内的数据来源于同一个样本集,加快了模型训练速度,提升了模型精度,并且,在云侧设备进行任务处理,减轻了前端的处理压力。
上述为本实施例的一种任务处理装置的示意性方案。需要说明的是,该任务处理装置的技术方案与上述应用于云侧设备的任务处理方法的技术方案属于同一构思,任务处理装置的技术方案未详细描述的细节内容,均可以参见上述应用于云侧设备的任务处理方法的技术方案的描述。
图17示出了本说明书一个实施例提供的一种计算设备的结构框图。该计算设备1700的部件包括但不限于存储器1710和处理器1720。处理器1720与存储器1710通过总线1730相连接,数据库1750用于保存数据。
计算设备1700还包括接入设备1740,接入设备1740使得计算设备1700能够经由一个或多个网络1760通信。这些网络的示例包括公用交换电话网(PSTN,PublicSwitchedTelephoneNetwork)、局域网(LAN,LocalAreaNetwork)、广域网(WAN,WideAreaNetwork)、个域网(PAN,PersonalAreaNetwork)或诸如因特网的通信网络的组合。接入设备1740可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC,NetworkInterfaceCard))中的一个或多个,诸如IEEE802.11无线局域网(WLAN,WirelessLocalAreaNetworks)无线接口、全球微波互联接入(Wi-MAX,WorldInteroperabilityforMicrowaveAccess)接口、以太网接口、通用串行总线(USB,UniversalSerialBus)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC,NearFieldCommunication)接口,等等。
在本说明书的一个实施例中,计算设备1700的上述部件以及图17中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图17所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备1700可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或个人计算机(PC,PersonalComputer)的静止计算设备。计算设备1700还可以是移动式或静止式的服务器。
其中,处理器1720用于执行如下计算机可执行指令,该计算机可执行指令被处理器执行时实现上述任务处理方法或者图像分类方法或者任务处理模型的数据处理方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的任务处理方法、图像分类方法和任务处理模型的数据处理方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述任务处理方法或者图像分类方法或者任务处理模型的数据处理方法的技术方案的描述。
本说明书一实施例还提供一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现上述任务处理方法或者图像分类方法或者任务处理模型的数据处理方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的任务处理方法、图像分类方法和任务处理模型的数据处理方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述任务处理方法或者图像分类方法或者任务处理模型的数据处理方法的技术方案的描述。
本说明书一实施例还提供一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述任务处理方法或者图像分类方法或者任务处理模型的数据处理方法的步骤。
上述为本实施例的一种计算机程序的示意性方案。需要说明的是,该计算机程序的技术方案与上述的任务处理方法、图像分类方法和任务处理模型的数据处理方法的技术方案属于同一构思,计算机程序的技术方案未详细描述的细节内容,均可以参见上述任务处理方法或者图像分类方法或者任务处理模型的数据处理方法的技术方案的描述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、电载波信号、电信信号以及软件分发介质等。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本说明书实施例并不受所描述的动作顺序的限制,因为依据本说明书实施例,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本说明书实施例所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本说明书优选实施例只是用于帮助阐述本说明书。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书实施例的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本说明书实施例的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本说明书。本说明书仅受权利要求书及其全部范围和等效物的限制。
Claims (14)
1.一种任务处理方法,包括:
获取目标任务的待处理数据,其中,所述待处理数据包括文本数据、图像数据、音频数据和视频数据中的至少一种;
将所述待处理数据输入任务处理模型中,获得所述目标任务对应的任务处理结果,其中,所述任务处理模型基于多个样本训练数组训练得到,所述样本训练数组内的数据来源于同一样本集,所述样本训练数组基于乱序索引序列中的索引值从多个样本集中提取预设分组指标个目标样本数据得到,所述乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,所述索引序列包括索引值,所述索引值用于标识所述目标样本数据来源的样本集,所述索引值的数量基于所述样本集中的数据总量和所述预设分组指标确定。
2.根据权利要求1所述的方法,所述任务处理模型的训练方式,包括:
获取多个样本集,其中,所述样本集包括多个样本数据;
针对任一样本集,根据预设分组指标,对所述样本集中的多个样本数据分组,获得所述样本集对应的索引序列;
合并所述多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列;
根据所述乱序索引序列,从所述各索引值对应的样本集中提取样本训练数组;
利用所述样本训练数组,训练任务处理模型,获得训练完成的任务处理模型。
3.根据权利要求2所述的方法,所述根据所述乱序索引序列,从所述各索引值对应的样本集中提取样本训练数组,包括:
获取目标索引值对应的目标样本集的提取标签,其中,所述提取标签用于标识所述目标样本集中待提取的目标样本数据;
根据所述提取标签,从所述目标样本集中提取样本训练数组,其中,所述样本训练数组中的数据量与预设分组指标相同;
将所述乱序索引序列中目标索引值的下一索引值作为更新后的目标索引值,并根据所述样本训练数组中的数据量更新所述目标样本集的提取标签。
4.根据权利要求2或3所述的方法,所述任务处理模型包括主干层和多个处理层,所述处理层与所述样本集一一对应;
所述利用所述样本训练数组,训练任务处理模型,获得训练完成的任务处理模型,包括:
将所述样本训练数组输入所述主干层,提取所述样本训练数组对应的样本特征;
将所述样本特征输入目标处理层,获得所述样本训练数组对应的预测结果,其中,所述目标处理层为所述样本训练数组所属样本集对应的处理层;
根据所述预测结果和所述样本训练数组对应的样本标签,计算训练损失值;
根据所述训练损失值,调整所述主干层和所述目标处理层的参数,在达到预设停止条件的情况下,获得训练完成的任务处理模型。
5.根据权利要求4所述的方法,所述预设停止条件包括所述训练损失值小于或等于预设阈值;所述根据所述训练损失值,调整所述主干层和所述目标处理层的参数,在达到预设停止条件的情况下,获得训练完成的任务处理模型,包括:
根据所述训练损失值,调整所述主干层和所述目标处理层的参数,并返回执行根据所述乱序索引序列,从所述各索引值对应的样本集中提取样本训练数组的步骤;
在所述乱序索引序列遍历完成且所述训练损失值大于预设阈值的情况下,返回执行合并所述多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列的步骤;
在所述训练损失值小于或等于预设阈值的情况下,停止训练,获得训练完成的任务处理模型。
6.根据权利要求4所述的方法,所述预设停止条件包括训练次数达到预设迭代次数;所述根据所述训练损失值,调整所述主干层和所述目标处理层的参数,在达到预设停止条件的情况下,获得训练完成的任务处理模型,包括:
根据所述训练损失值,调整所述主干层和所述目标处理层的参数,并返回执行根据所述乱序索引序列,从所述各索引值对应的样本集中提取样本训练数组的步骤;
在所述乱序索引序列遍历完成且所述训练次数未达到预设迭代次数的情况下,返回执行合并所述多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列的步骤;
在所述训练次数达到预设迭代次数的情况下,停止训练,获得训练完成的任务处理模型。
7.根据权利要求2所述的方法,所述多个样本集中包括原始样本集和指定样本集;所述根据预设分组指标,对所述样本集中的多个样本数据分组,获得所述样本集对应的索引序列之后,还包括:
根据指定样本集对应的指定索引序列,从所述指定样本集中提取指定样本训练数组;
所述合并所述多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列,包括:
合并所述原始样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列;
所述利用所述样本训练数组,训练任务处理模型,获得训练完成的任务处理模型,包括:
利用所述样本训练数组和所述指定样本训练数组,训练任务处理模型,获得训练完成的任务处理模型。
8.根据权利要求7所述的方法,所述利用所述样本训练数组和所述指定样本训练数组,训练任务处理模型,获得训练完成的任务处理模型,包括:
利用所述样本训练数组训练所述任务处理模型,在所述乱序索引序列遍历完成的情况下,获得预训练完成的任务处理模型;
将所述指定样本训练数组输入所述预训练完成的任务处理模型,获得所述指定样本训练数组对应的指定预测结果;
根据所述指定预测结果和所述指定样本训练数组对应的指定样本标签,计算指定训练损失值;
根据所述指定训练损失值,调整指定处理层的参数,在达到训练停止条件的情况下,获得训练完成的任务处理模型,其中,所述指定处理层为所述指定样本集对应的处理层。
9.根据权利要求1所述的方法,所述将所述待处理数据输入任务处理模型中,获得所述目标任务对应的任务处理结果之前,还包括:
获取所述目标任务对应的下游任务样本集;
利用所述下游任务样本集对任务处理模型进行调整,获得更新后的任务处理模型;
所述将所述待处理数据输入任务处理模型中,获得所述目标任务对应的任务处理结果,包括:
将所述待处理数据输入所述更新后的任务处理模型中,获得所述目标任务对应的任务处理结果。
10.一种图像分类方法,包括:
获取待分类图像;
将所述待分类图像输入任务处理模型中,获得所述待分类图像对应的图像分类结果,其中,所述任务处理模型基于多个样本训练数组训练得到,所述样本训练数组内的数据来源于同一样本集,所述样本训练数组基于乱序索引序列中的索引值从多个样本集中提取预设分组指标个目标样本数据得到,所述乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,所述索引序列包括索引值,所述索引值用于标识所述目标样本数据来源的样本集,所述索引值的数量基于所述样本集中的数据总量和所述预设分组指标确定。
11.一种任务处理模型的数据处理方法,应用于云侧设备,所述方法包括:
获取多个样本集,其中,所述样本集包括多个样本数据,其中,所述样本数据包括样本文本数据、样本图像数据、样本音频数据和样本视频数据中的至少一种;
针对任一样本集,根据预设分组指标,对所述样本集中的多个样本数据分组,获得所述样本集对应的索引序列,其中,所述索引序列包括索引值,所述索引值用于标识目标样本数据来源的样本集,所述索引值的数量基于所述样本集中的数据总量和预设分组指标确定;
合并所述多个样本集对应的索引序列,并随机调整合并后的索引序列中索引值的顺序,获得乱序索引序列;
根据所述乱序索引序列,从所述各索引值对应的样本集中提取所述预设分组指标个目标样本数据得到样本训练数组,其中,所述样本训练数组内的数据来源于同一样本集;
根据所述样本训练数组,对任务处理模型进行训练,在达到预设停止条件的情况下,获得训练完成的任务处理模型的模型参数;
向端侧设备发送所述训练完成的任务处理模型的模型参数。
12.一种任务处理方法,应用于云侧设备,所述方法包括:
接收用户通过前端发送的任务处理请求,其中,所述任务处理请求携带待处理数据,其中,所述待处理数据包括文本数据、图像数据、音频数据和视频数据中的至少一种;
将所述待处理数据输入任务处理模型中,获得所述任务处理请求对应的任务处理结果,其中,所述任务处理模型基于多个样本训练数组训练得到,所述样本训练数组内的数据来源于同一样本集,所述样本训练数组基于乱序索引序列中的索引值从多个样本集中提取预设分组指标个目标样本数据得到,所述乱序索引序列是合并各样本集对应的索引序列后对合并后的索引序列中的索引值进行乱序处理得到,所述索引序列包括索引值,所述索引值用于标识所述目标样本数据来源的样本集,所述索引值的数量基于所述样本集中的数据总量和所述预设分组指标确定;
将所述任务处理结果发送至所述前端,以使前端显示所述任务处理结果。
13.一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至9任意一项或者权利要求10或者权利要求11或者权利要求12所述方法的步骤。
14.一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至9任意一项或者权利要求10或者权利要求11或者权利要求12所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310281727.0A CN116363457B (zh) | 2023-03-17 | 2023-03-17 | 任务处理、图像分类、任务处理模型的数据处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310281727.0A CN116363457B (zh) | 2023-03-17 | 2023-03-17 | 任务处理、图像分类、任务处理模型的数据处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116363457A CN116363457A (zh) | 2023-06-30 |
CN116363457B true CN116363457B (zh) | 2024-04-30 |
Family
ID=86906325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310281727.0A Active CN116363457B (zh) | 2023-03-17 | 2023-03-17 | 任务处理、图像分类、任务处理模型的数据处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116363457B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117520818A (zh) * | 2023-11-08 | 2024-02-06 | 广州水沐青华科技有限公司 | 一种电力指纹识别方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927390A (zh) * | 2014-04-30 | 2014-07-16 | 北京林业大学 | 基于泊松盘样本块的植被分布快速合成方法和系统 |
CN108647568A (zh) * | 2018-03-30 | 2018-10-12 | 电子科技大学 | 基于全卷积神经网络的草地退化自动提取方法 |
CN111209854A (zh) * | 2020-01-06 | 2020-05-29 | 苏州科达科技股份有限公司 | 司乘人员未系安全带识别方法、装置及存储介质 |
CN113065663A (zh) * | 2021-01-22 | 2021-07-02 | 腾讯科技(深圳)有限公司 | 一种数据访问方法、装置、设备和存储介质 |
-
2023
- 2023-03-17 CN CN202310281727.0A patent/CN116363457B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927390A (zh) * | 2014-04-30 | 2014-07-16 | 北京林业大学 | 基于泊松盘样本块的植被分布快速合成方法和系统 |
CN108647568A (zh) * | 2018-03-30 | 2018-10-12 | 电子科技大学 | 基于全卷积神经网络的草地退化自动提取方法 |
CN111209854A (zh) * | 2020-01-06 | 2020-05-29 | 苏州科达科技股份有限公司 | 司乘人员未系安全带识别方法、装置及存储介质 |
CN113065663A (zh) * | 2021-01-22 | 2021-07-02 | 腾讯科技(深圳)有限公司 | 一种数据访问方法、装置、设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
基于深度信念网络的湖羊维持行为识别;石文兵;葛斌;苏树智;;传感技术学报(07);全文 * |
拼铺法快速合成大规模植物分布;林琳;杨刚;杨猛;;计算机辅助设计与图形学学报(02);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116363457A (zh) | 2023-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902186B (zh) | 用于生成神经网络的方法和装置 | |
US11899681B2 (en) | Knowledge graph building method, electronic apparatus and non-transitory computer readable storage medium | |
CN111582453B (zh) | 生成神经网络模型的方法和装置 | |
CN111507768B (zh) | 一种潜在用户的确定方法及相关装置 | |
CN109993102B (zh) | 相似人脸检索方法、装置及存储介质 | |
CN110147437A (zh) | 一种基于知识图谱的搜索方法及装置 | |
CN112884005B (zh) | 一种基于sptag及卷积神经网的图像检索方法及装置 | |
CN113011282A (zh) | 图数据处理方法、装置、电子设备及计算机存储介质 | |
CN116363457B (zh) | 任务处理、图像分类、任务处理模型的数据处理方法 | |
CN111191133B (zh) | 业务搜索处理方法、装置及设备 | |
CN111651989B (zh) | 命名实体识别方法和装置、存储介质及电子装置 | |
CN111738010A (zh) | 用于生成语义匹配模型的方法和装置 | |
CN117033657A (zh) | 一种信息检索方法及装置 | |
CN116303558A (zh) | 查询语句生成方法、数据查询方法及生成模型训练方法 | |
CN117114063A (zh) | 用于训练生成式大语言模型和用于处理图像任务的方法 | |
CN111767953B (zh) | 用于训练物品编码模型的方法和装置 | |
CN113705402A (zh) | 视频行为预测方法、系统、电子设备及存储介质 | |
CN116629375A (zh) | 模型处理方法以及系统 | |
CN115114329A (zh) | 数据流异常检测的方法、装置、电子设备和存储介质 | |
CN110210523B (zh) | 一种基于形状图约束的模特穿着衣物图像生成方法及装置 | |
CN116561270A (zh) | 问答方法以及问答模型训练方法 | |
CN116663565A (zh) | 信息抽取、会议观点抽取以及信息抽取模型训练方法 | |
CN112307243A (zh) | 用于检索图像的方法和装置 | |
CN111832358A (zh) | 一种点云语义解析方法和装置 | |
CN113806376B (zh) | 索引构建方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |