CN112561077B - 多任务模型的训练方法、装置及电子设备 - Google Patents
多任务模型的训练方法、装置及电子设备 Download PDFInfo
- Publication number
- CN112561077B CN112561077B CN202011475059.8A CN202011475059A CN112561077B CN 112561077 B CN112561077 B CN 112561077B CN 202011475059 A CN202011475059 A CN 202011475059A CN 112561077 B CN112561077 B CN 112561077B
- Authority
- CN
- China
- Prior art keywords
- task
- sub
- sample
- sample set
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 165
- 238000000034 method Methods 0.000 title claims abstract description 94
- 238000002372 labelling Methods 0.000 claims abstract description 23
- 238000013135 deep learning Methods 0.000 claims abstract description 8
- 238000004590 computer program Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 230000000875 corresponding effect Effects 0.000 description 157
- 230000008569 process Effects 0.000 description 29
- 238000004891 communication Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000238557 Decapoda Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种多任务模型的训练方法、装置及电子设备,涉及计算机技术领域,尤其涉及深度学习与人工智能技术领域。具体实现方案为:获取训练样本集,其中,样本集中包括多个样本及每个样本对应的标注数据;根据每个样本对应的标注数据将样本集进行分类,以确定各个任务对应的子样本集及梯度权重;基于每个任务对应的子样本集及梯度权重,对多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对多任务模型进行参数更新。由此,通过这种多任务模型的训练方法,避免了多任务模型训练的任务偏向性问题,提升了多任务模型的精度。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及深度学习与人工智能技术领域,提出一种多任务模型的训练方法、装置及电子设备。
背景技术
多任务学习是指优化多个目标函数的训练任务,是监督学习的一种形式。多任务学习的核心问题和难点是如何处理多个子任务的训练数据,平衡多个子任务的优化学习。
相关技术中,可以通过交替训练的方式训练多任务模型,即根据不同子任务的训练数据轮流训练多个子任务,每个批次只训练一个子任务。但是,交替训练的方式容易导致多任务模型的性能倾向于最近训练的子任务,从而导致其他子任务的精度受损,降低了多任务模型的整体性能。
发明内容
本申请提供了一种用于多任务模型的训练方法、装置、电子设备、存储介质以及计算机程序产品。
根据本申请的一方面,提供了一种多任务模型的训练方法,包括:获取训练样本集,其中,所述样本集中包括多个样本及每个样本对应的标注数据;根据所述每个样本对应的标注数据将所述样本集进行分类,以确定各个任务对应的子样本集及梯度权重;基于每个任务对应的子样本集及梯度权重,对所述多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对所述多任务模型进行参数更新。
根据本申请的另一方面,提供了一种多任务模型的训练装置,包括:获取模块,用于获取训练样本集,其中,所述样本集中包括多个样本及每个样本对应的标注数据;确定模块,用于根据所述每个样本对应的标注数据将所述样本集进行分类,以确定各个任务对应的子样本集及梯度权重;训练模块,用于基于每个任务对应的子样本集及梯度权重,对所述多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对所述多任务模型进行参数更新。
根据本申请的再一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如前所述的多任务模型的训练方法。
根据本申请的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如前所述的多任务模型的训练方法。
根据本申请的又一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如前所述的多任务模型的训练方法。
根据本申请的技术方案,解决了相关技术中,通过交替训练的方式训练多任务模型,容易导致多任务模型的性能倾向于最近训练的子任务,从而导致其他子任务的精度受损,降低了多任务模型的整体性能的问题。通过根据训练样本集中每个样本对应的标注数据将样本集进行分类,以确定各个任务对应的子样本集及梯度权重,进而基于每个任务对应的子样本集及梯度权重,对多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对多任务模型进行参数更新。由此,通过同时训练多个任务,并对不同任务赋予不同的梯度权重,使得在多任务模型训练过程中可以同时对多个任务进行优化学习,并通过梯度权重约束各任务对模型参数的更新幅度,从而避免了多任务模型训练的任务偏向性问题,提升了多任务模型的精度。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例所提供的一种多任务模型的训练方法的流程示意图;
图2为本申请实施例所提供的另一种多任务模型的训练方法的流程示意图;
图3为本申请实施例所提供的再一种多任务模型的训练方法的流程示意图;
图4为本申请实施例提供的一种多任务模型的训练装置的结构示意图;
图5为用来实现本申请实施例的多任务模型的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
以下对本申请的方案涉及的技术领域进行简要说明:
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
深度学习是机器学习领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术,以及其他相关领域都取得了很多成果。
本申请实施例针对相关技术中,通过交替训练的方式训练多任务模型,容易导致多任务模型的性能倾向于最近训练的子任务,从而导致其他子任务的精度受损,降低了多任务模型的整体性能的问题,提出一种多任务模型的训练方法。
下面参考附图对本申请提供的多任务模型的训练方法、装置、电子设备、存储介质及计算机程序产品进行详细描述。
图1为本申请实施例所提供的一种多任务模型的训练方法的流程示意图。
如图1所示,该多任务模型的训练方法,包括以下步骤:
步骤101,获取训练样本集,其中,样本集中包括多个样本及每个样本对应的标注数据。
需要说明的是,本申请实施例的多任务模型的训练方法可以由本申请实施例的多任务模型的训练装置执行,本申请实施例的多任务模型的训练装置可以配置在任意电子设备中,以执行本申请实施例的多任务模型的训练方法。
在本申请实施例中,本申请实施例的多任务模型训练方法可以应用在任意的需要同时实现多个功能的模型训练场景中,比如,可以应用在信息流推荐、广告推荐,搜索推荐等应用场景。
作为一种示例,本申请实施例的多任务模型训练方法可以应用在广告推荐场景中,以用于训练具有多个子任务的广告推荐模型。比如,广告推荐模型可以用于预测广告的点击率和转化率,即广告推荐模型包含两个子任务:广告的点击率和转化率。
其中,训练样本集,可以是根据多任务模型的实际应用场景中的历史使用数据生成的。
举例来说,本申请实施例的多任务模型的训练方法应用在广告推荐场景中时,即多任务模型可以是广告推荐模型,广告推荐模型可以应用在具有广告推荐功能的应用场景中,从而可以从广告推荐模型所应用的应用程序的历史使用数据中获取训练样本集。比如,可以将应用程序中一个广告的广告类型、时长、标签等特征数据作为一个样本,并将用户对该广告的点击率、观看时长、点赞数、转发数、分享数、转化率等用户操作数据,作为该样本对应的标注数据。进而根据上述方式根据应用程序中大量广告的历史使用数据,生成包含大量训练样本的训练样本集。
步骤102,根据每个样本对应的标注数据将样本集进行分类,以确定各个任务对应的子样本集及梯度权重。
其中,任务对应的子样本集,是指训练多任务模型中该任务所利用的样本构成的样本集。
其中,任务对应的梯度权重,可以反映根据该任务对应的子样本集生成的梯度,在多任务模型训练过程中进行模型参数更新时的重要程度。比如,任务对应的梯度权重越大,根据该任务对应的子样本集生成的梯度,在模型参数更新时的重要程度越高;反之,根据该任务对应的子样本集生成的梯度,在模型参数更新时的重要程度越低。
在本申请实施例中,由于对多任务模型中的多个任务的训练目标不同,因此训练各个任务所使用的样本集的标注数据也是不同的,从而可以根据训练样本集中各样本对应的标注数据对训练样本集进行分类,以确定各个任务对应的子样本集,进而根据各个任务对应的子样本集确定各个任务对应的梯度权重。
作为一种可能的实现方式,可以根据训练样本集中每个样本对应的标注数据的类型,对训练样本集进行分类。即可以将标注数据属于同一类型的样本划分至同一个子样本集。
作为一种可能的实现方式,由于任务对应的子样本集包含的样本数量,可以影响训练过程中该子样本集对模型性能的优化效果,因此可以根据任务对应的子样本集包含的样本数量,确定每个任务对应的梯度权重。
可选的,由于任务对应的子样本集包含的样本数量越大,在训练过程中该子样本集对模型性能的优化效果越好,因此可以将该任务对应的梯度权重确定为较大的值;反之,可以将该任务对应的梯度权重确定为较小的值。
步骤103,基于每个任务对应的子样本集及梯度权重,对多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对多任务模型进行参数更新。
在本申请实施例中,多任务模型可以包括每个任务均需要使用的共享网络层,以及每个任务单独使用的子网络层。因此,在多任务模型的多个任务同时训练的过程中,可以利用所有任务对应的子样本集对共享网络层进行训练,以及可以利用每个任务对应的子样本集分别对相应任务对应的子网络层进行训练,以在一轮训练中同时训练多个任务,降低多任务模型的任务偏向性。
作为一种可能的实现方式,可以将训练样本集中的每个样本依次输入多任务模型,并根据多任务模型输出的每个样本对应的预测数据与标注数据的差异,确定每个子样本集对共享网络层的模型参数的更新梯度,以及每个子样本集对相应的子网络层的模型参数的更新梯度。之后,可以根据
每个子网络层的模型参数的更新梯度对相应的子网络层的模型参数进行更新,以及根据每个任务对应的梯度权重对每个子样本集对共享网络层的模型参数的更新梯度进行加权,以确定共享网络层的整体更新梯度,进而根据该整体更新梯度对共享网络层的模型参数进行更新,从而完成对多任务模型的一轮训练。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本对应的标注数据将样本集进行分类,以确定各个任务对应的子样本集及梯度权重,进而基于每个任务对应的子样本集及梯度权重,对多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对多任务模型进行参数更新。由此,通过同时训练多个任务,并对不同任务赋予不同的梯度权重,使得在多任务模型训练过程中可以同时对多个任务进行优化学习,并通过梯度权重约束各任务对模型参数的更新幅度,从而避免了多任务模型训练的任务偏向性问题,提升了多任务模型的精度。
在本申请一种可能的实现形式中,可以通过标签技术对每个样本所属的任务进行标注,以实现对训练样本集的分类;并可以根据每个子样本集包含的样本数量,确定每个任务对应的梯度权重,以进一步提升多任务模型的训练效果。
下面结合图2,对本申请实施例提供的多任务模型的训练方法进行进一步说明。
图2为本申请实施例所提供的另一种多任务模型的训练方法的流程示意图。
如图2所示,该多任务模型的训练方法,包括以下步骤:
步骤201,获取训练样本集,其中,样本集中包括多个样本及每个样本对应的标注数据。
上述步骤201的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤202,根据每个样本对应的标注数据,确定每个样本对应的任务标签。
在本申请实施例中,可以根据每个样本对应的标注数据,确定每个样本所属的任务,进而根据每个样本所属的任务,确定每个样本对应的任务标签。
作为一种可能的实现方式,可以在每个样本中添加一个属性域,之后根据每个样本所属的任务确定每个样本对应的任务标签,进而根据每个样本对应的任务标签确定每个样本的属性域的取值,以通过属性域的取值标示样本的任务标签。
举例来说,多任务模型为广告推荐模型,广告推荐模型的包含两个任务:任务1为预测广告点击率,任务2为预测广告转化率。若样本1的标注数据中包含点击率,则可以确定样本1所属的任务为任务1,从而可以将样本1对应的任务标签确定为1,并将样本1的属性域的取值确定为[1];若样本2的标注数据中包含转化率,则可以确定样本2所属的任务为任务2,从而可以将样本2对应的任务标签确定为2,并将样本2的属性域的取值确定为[2];若样本3的标注数据中包含点击率与转化率,则可以确定样本1所属的任务为任务1与任务2,从而可以将样本3对应的任务标签确定为1和2,并将样本3的属性域的取值确定为[1,2];依次类推,直至确定出训练样本集中所有样本的任务标签。
步骤203,根据每个样本对应的任务标签将样本集进行分类,以确定各个任务对应的子样本集。
在本申请实施例中,确定出每个样本对应的任务标签之后,将具有相同任务标签的样本划分至同一个子样本集,从而确定出各个任务对应的子样本集。
作为一种示例,样本对应的任务标签可以有一个或多个,从而可以根据样本对应的任务标签的数量对训练样本集进行分类,以确定训练样本集中包括的多个子样本集。
情况一
在任一样本对应一个任务标签的情况下,确定该任务标签对应的子样本集中均包含任一样本。比如,若样本1对应的任务标签为1,则可以将样本1划分至任务标签1对应的子样本集中,其中,任务标签1对应的子样本集中包含可以用于训练任务1的所有样本。
情况二
在任一样本对应多个任务标签的情况下,确定多个任务标签中的每个任务标签对应的子样本集中均包含任一样本。
举例来说,若样本2对应的任务标签为1和2,则可以既将样本2划分至任务标签1对应的子样本集中,又将样本2划分至任务标签2对应的子样本集中,以使样本2既可以用于训练任务1,又可以用于训练任务2。
步骤204,根据每个子样本集中包含的样本数量,确定每个任务对应的梯度权重。
在本申请实施例中,由于任务对应的子样本集包含的样本数量,与在训练过程中该子样本集对模型性能的优化效果呈正相关,因此,可以根据每个子样本集中包含的样本数量,确定每个任务对应的梯度权重。
可选的,可以根据子样本集包含的样本数量的占比,确定子样本集的梯度权重。即在本申请实施例一种可能的实现方式中,上述步骤204,可以包括:
在各个子样本集中包含样本数量非0的情况下,根据各个子样本集中包含的样本数量占总样本数量的比例,确定每个任务对应的梯度权重。
在本申请实施例中,在子样本集包含的样本数量不为0时,可以将子样本集中包含的样本数量占总样本数量的比例,确定为相应的子任务对应的梯度权重,以使每个任务对应的梯度权重与对应的子样本集包含的样本数量呈正比。
可选的,还可以在子样本集不为空时,利用根据该子样本集生成的梯度对多任务模型进行更新,并在子样本集为空时,不利用该子样本集对多任务模型进行更新。即在本申请实施例一种可能的实现方式,上述步骤204,可以包括:
在任一子样本集中包含至少一个样本的情况下,确定任一子样本集所属的任务的梯度权重为1;
在任一子样本集中包含的样本数量为0的情况下,确定任一子样本集所属的任务的梯度权重为0。
在本申请实施例中,若子样本集不为空,即该子样本集中包含指示一个样本,则利用该子样本集对多任务模型进行训练生成的梯度是有效的,从而可以利用该子样本集对多任务模型进行训练生成的梯度对多任务模型的参数进行更新,因此,可以将该子样本集所属的任务的梯度权重确定为1,以使在模型参数更新时,以使通过该子样本集生成的梯度可以参与模型参数的更新过程。
相应的,若子样本集为空,即该子样本集中包含的样本数量为0,则通过该子样本集对多任务模型进行训练时所生成的梯度是无效的,若使用通过该子样本集生成的梯度对多任务模型的模型参数进行更新,会影响模型的准确性。因此,可以在子样本集包含的样本数量为0的情况下,将该子样本集所属的任务的梯度权重确定为0,以使通过该子样本集生成的梯度无法参与多任务模型的模型参数的更新过程,从而提升多任务模型的精度。
进一步的,在任务对应的子样本集为空时,还可以利用假数据填充子样本集,以使在多任务模型训练过程中可以同时训练子样本集为空的任务,以保证多任务模型训练的稳定性和正确性。即在本申请实施例一种可能的实现方式中,上述多任务模型的训练方法,还可以包括:
在任一子样本集中包含的样本数量为0的情况下,将预设的假数据填入至任一子样本集中。
在本申请实施例中,由于本申请实施例的多任务模型的训练方法,是将多个任务同时进行训练的,因此在某个任务对应的子样本集为空时,容易导致多任务模型训练过程不稳定,因此,可以在预设的假数据填入为空的子样本集中,并将该任务对应的梯度权重确定为0,从而不仅可以保证多任务模型训练过程的稳定性和正确性,而且可以提升多任务模型的精度。
步骤205,基于每个任务对应的子样本集及梯度权重,对多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对多任务模型进行参数更新。
上述步骤205的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本对应的标注数据,确定每个样本对应的任务标签,并根据每个样本对应的任务标签将样本集进行分类,以确定各个任务对应的子样本集,之后根据每个子样本集中包含的样本数量,确定每个任务对应的梯度权重,进而基于每个任务对应的子样本集及梯度权重,对多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对多任务模型进行参数更新。由此,通过同时训练多个任务,并通过每个子样本集中的样本数量确定相应任务的梯度权重,使得在多任务模型训练过程中可以同时对多个任务进行优化学习,并通过梯度权重约束各任务对模型参数的更新幅度,从而避免了多任务模型训练的任务偏向性问题,进一步提升了多任务模型的精度,而且提升了多任务模型训练过程的稳定性和正确性。
在本申请一种可能的实现形式中,可以利用通过各个子样本集生成的梯度对多任务模型中的共享网络层进行训练,以及利用通过每个子样本集生成的梯度分别对相应任务的子网络层进行训练,以在实现同时训练多任务模型中多个任务的同时,保证各个任务的训练精度。
下面结合图3,对本申请实施例提供的多任务模型的训练方法进行进一步说明。
图3为本申请实施例所提供的再一种多任务模型的训练方法的流程示意图。
如图3所示,该多任务模型的训练方法,包括以下步骤:
步骤301,获取训练样本集,其中,样本集中包括多个样本及每个样本对应的标注数据。
步骤302,根据每个样本对应的标注数据将样本集进行分类,以确定各个任务对应的子样本集及梯度权重。
上述步骤301-302的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤303,基于每个任务对应的子样本集对多任务模型的共享网络层及每个子任务对应的子网络层分别进行训练,以确定每个子网络层中模型参数的第一更新梯度、及每个任务对共享网络层中模型参数的第二更新梯度。
在本申请实施例中,多任务模型可以包括每个任务均需要使用的共享网络层,以及每个任务单独使用的子网络层。因此,在多任务模型的多个任务同时训练的过程中,可以利用所有任务对应的子样本集对共享网络层进行训练,以及可以利用每个任务对应的子样本集分别对相应任务对应的子网络层进行训练,以在一轮训练中同时训练多个任务,降低多任务模型的任务偏向性。
作为一种可能的实现方式,可以将训练样本集中的每个样本依次输入多任务模型,并根据多任务模型输出的每个样本对应的预测数据与标注数据的差异,确定每个子样本集对共享网络层中模型参数的第二更新梯度,以及每个子样本集对相应的子网络层中模型参数的第一更新梯度。
步骤304,根据每个第一更新梯度,分别对每个子网络层中模型参数进行更新。
在本申请实施例中,由于每个任务对应的子网络层,仅对该任务对应的子样本集中的样本进行处理,而与多任务模型中其他任务的样本和性能均无关,因此可以根据通过每个子样本集生成的第一更新梯度,直接对相应任务对应的子网络层中的参数进行更新,以使任务对应的子网络层的参数更新过程仅与该任务对应的子样本集有关,而不依赖于其他任务对应的子样本集,从而降低了多任务模型训练的任务偏向性,提升了各任务的训练精度。
步骤305,根据每个第二更新梯度及每个任务对应的梯度权重,确定共享网络层中模型参数的目标更新梯度。
在本申请实施例中,由于多任务模型中的共享网络层,可以对所有任务对应的子样本集中的样本进行处理,可以影响多任务模型中所有任务的性能。因此,可以根据通过每个子样本集生成的第二更新梯度,共同对多任务模型中的共享网络层的模型参数进行更新,以使共享网络层在各任务中均可以具有较好的处理性能。
在本申请实施例一种可能的实现方式中,由于任务对应的梯度权重,可以反映通过该任务对应的子样本集生成的梯度,在多任务模型训练过程中进行模型参数更新时的重要程度,因此,可以根据每个第二更新梯度及每个任务对应的梯度权重,确定共享网络层中模型参数的目标更新梯度,以根据目标更新梯度更新共享网络层中的模型参数时,通过梯度权重平衡各子样本集对共享网络层的优化效果,保证共享网络层对各任务进行处理时均可以具有较高的精度。
可选的,可以将每个任务对共享网络层中模型参数的第二更新梯度的加权和,确定为目标更新梯度。即目标更新梯度可以通过公式(1)确定。
其中,ω为目标更新梯度,ωi为第i个任务对应的梯度权重,Gi为第i个任务对共享网络层中模型参数的第二更新梯度,n为多任务模型中的任务数量,i为多任务模型中的任务序号。
可选的,可以将每个任务对共享网络层中模型参数的第二更新梯度的加权均值,确定为目标更新梯度。即目标更新梯度可以通过公式(2)确定。
其中,ω为目标更新梯度,ωi为第i个任务对应的梯度权重,Gi为第i个任务对共享网络层中模型参数的第二更新梯度,n为多任务模型中的任务数量,i为多任务模型中的任务序号。
需要说明的是,确定目标更新梯度的方式可以包括但不限于以上列举的情形。实际使用时,可以根据实际需要选择确定目标更新梯度的方式,本申请实施例对此不做限定。
步骤306,根据目标更新梯度,对共享网络层中的模型参数进行更新。
在本申请实施例中,确定出目标更新梯度之后,即可以根据目标更新梯度对共享网络层中的模型参数进行更新,从而实现通过各任务对应的子样本集同时对共享网络层进行训练。
作为一种可能的实现方式,在多任务模型中包含多个共享网络层时,可以根据目标更新梯度,仅对与子网络层相邻的共享网络层的模型参数进行更新,而对于其他不与子网络层相邻的共享网络层,可以按照常规的参数更新方式,根据各共享网络层之间的连接关系,直接对其他各共享网络层中的模型参数进行更新。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本对应的标注数据将样本集进行分类,以确定各个任务对应的子样本集及梯度权重,并基于每个任务对应的子样本集对多任务模型的共享网络层及每个子任务对应的子网络层分别进行训练,以确定每个子网络层中模型参数的第一更新梯度、及每个任务对共享网络层中模型参数的第二更新梯度,之后根据每个第一更新梯度,分别对每个子网络层中模型参数进行更新,以及根据每个第二更新梯度及每个任务对应的梯度权重,确定共享网络层中模型参数的目标更新梯度,进而根据目标更新梯度,对共享网络层中的模型参数进行更新。由此,通过同时训练多个任务,并对不同任务赋予不同的梯度权重,以通过各个子样本集生成的梯度共同对多任务模型中的共享网络层的模型参数进行更新,并利用梯度权重平衡各任务对共享网络层的训练效果,以及利用通过每个子样本集生成的梯度分别对相应任务的子网络层进行训练,从而使得在多任务模型训练过程中可以同时对多个任务进行优化学习,并保证多任务模型中各个任务的训练精度。
为了实现上述实施例,本申请还提出一种多任务模型的训练装置。
图4为本申请实施例提供的一种多任务模型的训练装置的结构示意图。
如图4所示,该多任务模型的训练装置40,包括:
获取模块41,用于获取训练样本集,其中,样本集中包括多个样本及每个样本对应的标注数据;
确定模块42,用于根据每个样本对应的标注数据将样本集进行分类,以确定各个任务对应的子样本集及梯度权重;
训练模块43,用于基于每个任务对应的子样本集及梯度权重,对多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对多任务模型进行参数更新。
在实际使用时,本申请实施例提供的多任务模型的训练装置,可以被配置在任意电子设备中,以执行前述多任务模型的训练方法。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本对应的标注数据将样本集进行分类,以确定各个任务对应的子样本集及梯度权重,进而基于每个任务对应的子样本集及梯度权重,对多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对多任务模型进行参数更新。由此,通过同时训练多个任务,并对不同任务赋予不同的梯度权重,使得在多任务模型训练过程中可以同时对多个任务进行优化学习,并通过梯度权重约束各任务对模型参数的更新幅度,从而避免了多任务模型训练的任务偏向性问题,提升了多任务模型的精度。
在本申请一种可能的实现形式中,上述确定模块42,包括:
第一确定单元,用于根据每个样本对应的标注数据,确定每个样本对应的任务标签;
第二确定单元,用于根据每个样本对应的任务标签将样本集进行分类,以确定各个任务对应的子样本集;
第三确定单元,用于根据每个子样本集中包含的样本数量,确定每个任务对应的梯度权重。
进一步的,在本申请另一种可能的实现形式中,上述第三确定单元,包括:
第一确定子单元,用于在各个子样本集中包含样本数量非0的情况下,根据各个子样本集中包含的样本数量占总样本数量的比例,确定每个任务对应的梯度权重;
或者,
第二确定子单元,用于在任一子样本集中包含至少一个样本的情况下,确定任一子样本集所属的任务的梯度权重为1。
进一步的,在本申请再一种可能的实现形式中,上述第三确定单元,包括:
第三确定子单元,用于在任一子样本集中包含的样本数量为0的情况下,确定任一子样本集所属的任务的梯度权重为0。
进一步的,在本申请又一种可能的实现形式中,上述多任务模型的训练装置40,还包括:
填充模块,用于在任一子样本集中包含的样本数量为0的情况下,将预设的假数据填入至任一子样本集中。
进一步的,在本申请又一种可能的实现形式中,上述第二确定单元,包括:
第四确定子单元,用于在任一样本对应多个任务标签的情况下,确定多个任务标签中的每个任务标签对应的子样本集中均包含任一样本。
进一步的,在本申请另一种可能的实现形式中,上述训练模块43,包括:
训练单元,用于基于每个任务对应的子样本集对所述多任务模型的共享网络层及每个子任务对应的子网络层分别进行训练,以确定每个子网络层中模型参数的第一更新梯度、及每个任务对共享网络层中模型参数的第二更新梯度;
第一更新单元,用于根据每个第一更新梯度,分别对每个子网络层中模型参数进行更新;
第四确定单元,用于根据每个第二更新梯度及每个任务对应的梯度权重,确定共享网络层中模型参数的目标更新梯度;
第二更新单元,用于根据目标更新梯度,对共享网络层中的模型参数进行更新。
需要说明的是,前述对图1、图2、图3所示的多任务模型的训练方法实施例的解释说明也适用于该实施例的多任务模型的训练装置40,此处不再赘述。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本对应的标注数据,确定每个样本对应的任务标签,并根据每个样本对应的任务标签将样本集进行分类,以确定各个任务对应的子样本集,之后根据每个子样本集中包含的样本数量,确定每个任务对应的梯度权重,进而基于每个任务对应的子样本集及梯度权重,对多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对多任务模型进行参数更新。由此,通过同时训练多个任务,并通过每个子样本集中的样本数量确定相应任务的梯度权重,使得在多任务模型训练过程中可以同时对多个任务进行优化学习,并通过梯度权重约束各任务对模型参数的更新幅度,从而避免了多任务模型训练的任务偏向性问题,进一步提升了多任务模型的精度,而且提升了多任务模型训练过程的稳定性和正确性。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图5示出了可以用来实施本申请的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM 503中,还可存储设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如多任务模型的训练方法。例如,在一些实施例中,多任务模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到RAM 503并由计算单元501执行时,可以执行上文描述的多任务模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行多任务模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS(VirtualPrivate Server,虚拟专用服务器)服务中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本对应的标注数据将样本集进行分类,以确定各个任务对应的子样本集及梯度权重,进而基于每个任务对应的子样本集及梯度权重,对多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对多任务模型进行参数更新。由此,通过同时训练多个任务,并对不同任务赋予不同的梯度权重,使得在多任务模型训练过程中可以同时对多个任务进行优化学习,并通过梯度权重约束各任务对模型参数的更新幅度,从而避免了多任务模型训练的任务偏向性问题,提升了多任务模型的精度。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (15)
1.一种基于深度学习的多任务模型的训练方法,所述多任务模型为广告推荐模型,所述广告推荐模型包含两个任务,分别为预测广告点击率和预测广告转化率,包括:
获取训练样本集,其中,所述样本集是根据应用程序中大量广告的历史使用数据所生成,所述样本集中包括多个样本及每个样本对应的标注数据,所述样本为广告的特征数据,所述特征数据包括广告类型、时长、标签,所述标注数据为用户对所述广告的用户操作数据,包括所述用户对所述广告的点击率、观看时长、点赞数、转发数、分享数、转化率;
根据所述每个样本对应的标注数据将所述样本集进行分类,以确定各个任务对应的子样本集及梯度权重;
基于每个任务对应的子样本集及梯度权重,对所述多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对所述多任务模型进行参数更新;
其中,所述基于每个任务对应的子样本集及梯度权重,对所述多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对所述多任务模型进行参数更新,包括:
基于每个任务对应的子样本集对所述多任务模型的共享网络层及每个子任务对应的子网络层分别进行训练,以确定所述每个子网络层中模型参数的第一更新梯度、及每个任务对所述共享网络层中模型参数的第二更新梯度;
根据每个所述第一更新梯度,分别对所述每个子网络层中模型参数进行更新;
根据每个所述第二更新梯度及所述每个任务对应的梯度权重,确定所述共享网络层中模型参数的目标更新梯度;
根据所述目标更新梯度,对所述共享网络层中的模型参数进行更新。
2.如权利要求1所述的方法,其中,所述根据所述每个样本对应的标注数据将所述样本集进行分类,以确定各个任务对应的子样本集及梯度权重,包括:
根据所述每个样本对应的标注数据,确定所述每个样本对应的任务标签;
根据所述每个样本对应的任务标签将所述样本集进行分类,以确定各个任务对应的子样本集;
根据每个子样本集中包含的样本数量,确定每个任务对应的梯度权重。
3.如权利要求2所述的方法,其中,所述根据每个子样本集中包含的样本数量,确定每个任务对应的梯度权重,包括:
在各个子样本集中包含样本数量非0的情况下,根据各个子样本集中包含的样本数量占总样本数量的比例,确定每个任务对应的梯度权重;
或者,
在任一子样本集中包含至少一个样本的情况下,确定所述任一子样本集所属的任务的梯度权重为1。
4.如权利要求2所述的方法,其中,所述根据每个子样本集中包含的样本数量,确定每个任务对应的梯度权重,包括:
在任一子样本集中包含的样本数量为0的情况下,确定所述任一子样本集所属的任务的梯度权重为0。
5.如权利要求4所述的方法,其中,所述方法还包括:
在任一子样本集中包含的样本数量为0的情况下,将预设的假数据填入至所述任一子样本集中。
6.如权利要求2所述的方法,其中,所述根据所述每个样本对应的任务标签将所述样本集进行分类,以确定各个任务对应的子样本集,包括:
在任一样本对应多个任务标签的情况下,确定所述多个任务标签中的每个任务标签对应的子样本集中均包含所述任一样本。
7.一种基于深度学习的多任务模型的训练装置,所述多任务模型为广告推荐模型,所述广告推荐模型包含两个任务,分别为预测广告点击率和预测广告转化率,包括:
获取模块,用于获取训练样本集,其中,所述样本集是根据应用程序中大量广告的历史使用数据所生成,所述样本集中包括多个样本及每个样本对应的标注数据,所述样本为广告的特征数据,所述特征数据包括广告类型、时长、标签,所述标注数据为用户对所述广告的用户操作数据,包括所述用户对所述广告的点击率、观看时长、点赞数、转发数、分享数、转化率;
确定模块,用于根据所述每个样本对应的标注数据将所述样本集进行分类,以确定各个任务对应的子样本集及梯度权重;
训练模块,用于基于每个任务对应的子样本集及梯度权重,对所述多任务模型的共享网络层及每个任务对应的子网络层分别进行训练,以对所述多任务模型进行参数更新;
其中,所述训练模块,包括:
训练单元,用于基于每个任务对应的子样本集对所述多任务模型的共享网络层及每个子任务对应的子网络层分别进行训练,以确定所述每个子网络层中模型参数的第一更新梯度、及每个任务对所述共享网络层中模型参数的第二更新梯度;
第一更新单元,用于根据每个所述第一更新梯度,分别对所述每个子网络层中模型参数进行更新;
第四确定单元,用于根据每个所述第二更新梯度及所述每个任务对应的梯度权重,确定所述共享网络层中模型参数的目标更新梯度;
第二更新单元,用于根据所述目标更新梯度,对所述共享网络层中的模型参数进行更新。
8.如权利要求7所述的装置,其中,所述确定模块,包括:
第一确定单元,用于根据所述每个样本对应的标注数据,确定所述每个样本对应的任务标签;
第二确定单元,用于根据所述每个样本对应的任务标签将所述样本集进行分类,以确定各个任务对应的子样本集;
第三确定单元,用于根据每个子样本集中包含的样本数量,确定每个任务对应的梯度权重。
9.如权利要求8所述的装置,其中,所述第三确定单元,包括:
第一确定子单元,用于在各个子样本集中包含样本数量非0的情况下,根据各个子样本集中包含的样本数量占总样本数量的比例,确定每个任务对应的梯度权重;
或者,
第二确定子单元,用于在任一子样本集中包含至少一个样本的情况下,确定所述任一子样本集所属的任务的梯度权重为1。
10.如权利要求8所述的装置,其中,所述第三确定单元,包括:
第三确定子单元,用于在任一子样本集中包含的样本数量为0的情况下,确定所述任一子样本集所属的任务的梯度权重为0。
11.如权利要求10所述的装置,其中,所述装置,还包括:
填充模块,用于在任一子样本集中包含的样本数量为0的情况下,将预设的假数据填入至所述任一子样本集中。
12.如权利要求8所述的装置,其中,所述第二确定单元,包括:
第四确定子单元,用于在任一样本对应多个任务标签的情况下,确定所述多个任务标签中的每个任务标签对应的子样本集中均包含所述任一样本。
13.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的方法。
15.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-6中任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011475059.8A CN112561077B (zh) | 2020-12-14 | 2020-12-14 | 多任务模型的训练方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011475059.8A CN112561077B (zh) | 2020-12-14 | 2020-12-14 | 多任务模型的训练方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112561077A CN112561077A (zh) | 2021-03-26 |
CN112561077B true CN112561077B (zh) | 2022-06-21 |
Family
ID=75063811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011475059.8A Active CN112561077B (zh) | 2020-12-14 | 2020-12-14 | 多任务模型的训练方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112561077B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344074B (zh) * | 2021-06-02 | 2023-09-05 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备及存储介质 |
CN113435528B (zh) * | 2021-07-06 | 2024-02-02 | 北京有竹居网络技术有限公司 | 对象分类的方法、装置、可读介质和电子设备 |
CN113610150B (zh) * | 2021-08-05 | 2023-07-25 | 北京百度网讯科技有限公司 | 模型训练的方法、对象分类方法、装置及电子设备 |
CN113705662B (zh) * | 2021-08-26 | 2024-08-02 | 中国银联股份有限公司 | 一种协同训练方法、装置及计算机可读存储介质 |
CN114219029A (zh) * | 2021-12-16 | 2022-03-22 | 中国建设银行股份有限公司 | 一种模型训练系统、方法、装置、设备及介质 |
CN114265979B (zh) * | 2021-12-17 | 2022-11-18 | 北京百度网讯科技有限公司 | 确定融合参数的方法、信息推荐方法和模型训练方法 |
CN114240506A (zh) * | 2021-12-21 | 2022-03-25 | 北京有竹居网络技术有限公司 | 多任务模型的建模方法、推广内容处理方法及相关装置 |
CN114331379B (zh) * | 2021-12-31 | 2023-08-15 | 北京百度网讯科技有限公司 | 用于输出待办任务的方法、模型训练方法和装置 |
CN114428677B (zh) * | 2022-01-28 | 2023-09-12 | 北京百度网讯科技有限公司 | 任务处理方法、处理装置、电子设备及存储介质 |
CN114170484B (zh) * | 2022-02-11 | 2022-05-27 | 中科视语(北京)科技有限公司 | 图片属性预测方法、装置、电子设备和存储介质 |
CN114860405B (zh) * | 2022-05-17 | 2023-01-31 | 北京百度网讯科技有限公司 | 多任务模型的参数更新方法、装置和存储介质 |
CN114742645B (zh) * | 2022-05-19 | 2022-09-06 | 北京淇瑀信息科技有限公司 | 基于多阶段时序多任务的用户安全等级识别方法及装置 |
CN115081630A (zh) * | 2022-08-24 | 2022-09-20 | 北京百度网讯科技有限公司 | 多任务模型的训练方法、信息推荐方法、装置和设备 |
CN115358413A (zh) * | 2022-09-14 | 2022-11-18 | 清华大学 | 一种点云多任务模型的训练方法、装置及电子设备 |
CN116186534B (zh) * | 2022-12-23 | 2024-02-23 | 北京百度网讯科技有限公司 | 预训练模型的更新方法、装置及电子设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10649806B2 (en) * | 2017-04-12 | 2020-05-12 | Petuum, Inc. | Elastic management of machine learning computing |
CN111461156A (zh) * | 2019-01-18 | 2020-07-28 | 搜狗(杭州)智能科技有限公司 | 一种多任务训练方法及装置 |
CN111709533B (zh) * | 2020-08-19 | 2021-03-30 | 腾讯科技(深圳)有限公司 | 机器学习模型的分布式训练方法、装置以及计算机设备 |
-
2020
- 2020-12-14 CN CN202011475059.8A patent/CN112561077B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112561077A (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112561077B (zh) | 多任务模型的训练方法、装置及电子设备 | |
CN112559007B (zh) | 多任务模型的参数更新方法、装置及电子设备 | |
CN113326764B (zh) | 训练图像识别模型和图像识别的方法和装置 | |
CN114648676B (zh) | 点云处理模型的训练和点云实例分割方法及装置 | |
CN112560874A (zh) | 图像识别模型的训练方法、装置、设备和介质 | |
CN114881129A (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
CN113627536A (zh) | 模型训练、视频分类方法,装置,设备以及存储介质 | |
CN113963186A (zh) | 目标检测模型的训练方法、目标检测方法及相关装置 | |
CN113051911A (zh) | 提取敏感词的方法、装置、设备、介质及程序产品 | |
CN113705362A (zh) | 图像检测模型的训练方法、装置、电子设备及存储介质 | |
CN114494776A (zh) | 一种模型训练方法、装置、设备以及存储介质 | |
CN116578925A (zh) | 基于特征画像的行为预测方法、装置及存储介质 | |
CN115984791A (zh) | 自动驾驶感知模型的生成方法、装置及电子设备 | |
CN115527069A (zh) | 物品识别和物品识别系统构建方法及装置 | |
CN113239273B (zh) | 用于生成文本的方法、装置、设备以及存储介质 | |
CN114330576A (zh) | 模型处理方法、装置、图像识别方法及装置 | |
CN114912541A (zh) | 分类方法、装置、电子设备和存储介质 | |
CN113139463A (zh) | 用于训练模型的方法、装置、设备、介质和程序产品 | |
CN113204616A (zh) | 文本抽取模型的训练与文本抽取的方法、装置 | |
CN113032251A (zh) | 应用程序服务质量的确定方法、设备和存储介质 | |
CN112749978A (zh) | 检测方法、装置、设备、存储介质以及程序产品 | |
CN114547448B (zh) | 数据处理、模型训练方法、装置、设备、存储介质及程序 | |
CN114926447B (zh) | 用于训练模型的方法、用于检测目标的方法和装置 | |
CN114724090B (zh) | 行人再识别模型的训练方法、行人再识别方法及装置 | |
US20230140148A1 (en) | Methods for community search, electronic device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |