CN112559007B - 多任务模型的参数更新方法、装置及电子设备 - Google Patents

多任务模型的参数更新方法、装置及电子设备 Download PDF

Info

Publication number
CN112559007B
CN112559007B CN202011474877.6A CN202011474877A CN112559007B CN 112559007 B CN112559007 B CN 112559007B CN 202011474877 A CN202011474877 A CN 202011474877A CN 112559007 B CN112559007 B CN 112559007B
Authority
CN
China
Prior art keywords
sample
task
network layer
updating
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011474877.6A
Other languages
English (en)
Other versions
CN112559007A (zh
Inventor
张文慧
于佃海
吴志华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011474877.6A priority Critical patent/CN112559007B/zh
Publication of CN112559007A publication Critical patent/CN112559007A/zh
Priority to US17/444,687 priority patent/US20210374542A1/en
Priority to EP21191012.0A priority patent/EP3913545A3/en
Priority to KR1020210109539A priority patent/KR20210110780A/ko
Priority to JP2021191868A priority patent/JP7194252B2/ja
Application granted granted Critical
Publication of CN112559007B publication Critical patent/CN112559007B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/65Updates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Abstract

本申请公开了一种多任务模型的参数更新方法、装置及电子设备,涉及计算机技术领域,尤其涉及深度学习与人工智能技术领域。具体实现方案为:获取训练样本集;根据每个样本所属的任务,依次将每个样本放入对应的样本队列;在任一样本队列中的样本数量达到训练数据要求的情况下,利用任一样本队列中的数据,对多任务模型中的共享网络层及与任一样本队列关联的任务对应的目标子网络层进行训练,以生成与任一样本队列关联的任务对应的模型参数更新梯度;根据更新梯度,对参数服务器中共享网络层及目标子网络层的参数进行更新。由此,通过这种多任务模型的参数更新方法,实现了分布式训练多任务模型时的局部参数更新,提升了多任务模型的精度。

Description

多任务模型的参数更新方法、装置及电子设备
技术领域
本申请涉及计算机技术领域,尤其涉及深度学习与人工智能技术领域,提出一种多任务模型的参数更新方法、装置及电子设备。
背景技术
多任务学习是指优化多个目标函数的训练任务,是监督学习的一种形式。多任务学习的核心问题和难点是如何处理多个子任务的训练数据,平衡多个子任务的优化学习。
相关技术中,可以通过分布式训练的方式实现多任务模型的训练,即通过多台机器进行联合训练,以满足机器的数据容量限制和深度学习的性能要求。在分布式训练中,最常见的模式是参数服务器模式。集群中的节点可以分为计算节点和参数服务节点两种。其中,计算节点负责对分配到本地的训练数据(块)的计算学习,并更新对应的参数;参数服务节点采用分布式存储的方式,各自存储全局参数的一部分,并作为服务方接受计算节点的参数查询和更新请求。
发明内容
本申请提供了一种用于多任务模型的参数更新方法、装置、电子设备、存储介质以及计算机程序产品。
根据本申请的一方面,提供了一种多任务模型的参数更新方法,包括:获取训练样本集,其中,所述样本集中包括多个样本及每个样本所属的任务;根据所述每个样本所属的任务,依次将所述每个样本放入对应的样本队列;在任一样本队列中的样本数量达到训练数据要求的情况下,利用所述任一样本队列中的样本,对所述多任务模型中的共享网络层及与所述任一样本队列关联的任务对应的目标子网络层进行训练,以生成与所述任一样本队列关联的任务对应的模型参数更新梯度;根据所述更新梯度,对参数服务器中所述共享网络层及所述目标子网络层的参数进行更新。
根据本申请的另一方面,提供了一种多任务模型的参数更新装置,包括:获取模块,用于获取训练样本集,其中,所述样本集中包括多个样本及每个样本所属的任务;分类模块,用于根据所述每个样本所属的任务,依次将所述每个样本放入对应的样本队列;训练模块,用于在任一样本队列中的样本数量达到训练数据要求的情况下,利用所述任一样本队列中的样本,对所述多任务模型中的共享网络层及与所述任一样本队列关联的任务对应的目标子网络层进行训练,以生成与所述任一样本队列关联的任务对应的模型参数更新梯度;更新模块,用于根据所述更新梯度,对参数服务器中所述共享网络层及所述目标子网络层的参数进行更新。
根据本申请的再一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如前所述的多任务模型的参数更新方法。
根据本申请的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如前所述的多任务模型的参数更新方法。
根据本申请的又一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如前所述的多任务模型的参数更新方法。
根据本申请的技术方案,解决了相关技术中,在多任务模型的分布式训练中,对一个任务进行一次训练之后,必须更新多任务模型中所有任务的模型参数,从而导致多任务模型的精度和性能下降的问题。通过根据训练样本集中每个样本所属的任务,依次将每个样本放入对应的样本队列,并在任一样本队列中的样本数量达到训练数据要求的情况下,利用该样本队列中的数据,对多任务模型中的共享网络层及与该样本队列关联的任务对应的目标子网络层进行训练,以生成与该样本队列关联的任务对应的模型参数更新梯度,进而根据更新梯度,对参数服务器中的共享网络层及目标子网络层的参数进行更新。由此,通过在多任务模型中的某个任务对应的样本数量达到批数据要求时,仅利用该任务对应的样本对多任务模型的共享网络层以及该任务对应的子网络层进行训练,而无需更新其他任务对应的子网络层的参数,从而实现了分布式训练多任务模型时的局部参数更新,提升了多任务模型的精度。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例所提供的一种多任务模型的参数更新方法的流程示意图;
图2为本申请实施例所提供的另一种多任务模型的参数更新方法的流程示意图;
图3为本申请实施例所提供的再一种多任务模型的参数更新方法的流程示意图;
图4为本申请实施例提供的一种多任务模型的参数更新装置的结构示意图;
图5为用来实现本申请实施例的多任务模型的参数更新方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
以下对本申请的方案涉及的技术领域进行简要说明:
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
深度学习是机器学习领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术,以及其他相关领域都取得了很多成果。
本申请实施例针对相关技术中,在多任务模型的分布式训练中,对一个任务进行一次训练之后,必须更新多任务模型中所有任务的模型参数,从而导致多任务模型的精度和性能下降的问题,提出一种多任务模型的参数更新方法。
下面参考附图对本申请提供的多任务模型的参数更新方法、装置、电子设备、存储介质及计算机程序产品进行详细描述。
图1为本申请实施例所提供的一种多任务模型的参数更新方法的流程示意图。
如图1所示,该多任务模型的参数更新方法,包括以下步骤:
步骤101,获取训练样本集,其中,样本集中包括多个样本及每个样本所属的任务。
需要说明的是,本申请实施例的多任务模型的参数更新方法可以由本申请实施例的多任务模型的参数更新装置执行,本申请实施例的多任务模型的参数更新装置可以配置在任意电子设备中,以执行本申请实施例的多任务模型的参数更新方法。
在本申请实施例中,本申请实施例的多任务模型训练方法可以应用在任意的需要同时实现多个功能的模型训练场景中,比如,可以应用在信息流推荐、广告推荐,搜索推荐等应用场景。
作为一种示例,本申请实施例的多任务模型训练方法可以应用在广告推荐场景中,以用于训练具有多个子任务的广告推荐模型。比如,广告推荐模型可以用于预测广告的点击率和转化率,即广告推荐模型包含两个子任务:广告的点击率和转化率。
其中,训练样本集,可以是根据多任务模型的实际应用场景中的历史使用数据生成的。
需要说明的是,在有监督训练场景中,每个样本可以包括训练数据和对训练数据的标注数据;在无监督训练场景中,每个样本可以仅包括训练数据。
举例来说,本申请实施例的多任务模型的参数更新方法应用在广告推荐场景中时,即多任务模型可以是广告推荐模型,广告推荐模型可以应用在具有广告推荐功能的应用场景中,从而可以从广告推荐模型所应用的应用程序的历史使用数据中获取训练样本集。比如,在无监督训练场景中,可以将应用程序中一个广告的广告类型、时长、标签等特征数据作为一个样本;在有监督训练场景中,可以将应用程序中一个广告的广告类型、时长、标签等特征数据作为一个训练数据,并将用户对该广告的点击率、观看时长、点赞数、转发数、分享数、转化率等用户操作数据,作为该训练数据对应的标注数据,进而将该训练数据和该训练数据对应的标注数据作为一个样本。进而根据上述方式根据应用程序中大量广告的历史使用数据,生成包含大量训练样本的训练样本集。
在本申请实施例中,在获取训练样本集时,还可以对每个样本用于训练多任务模型中的哪个任务进行标注,即训练样本集中还可以包括每个样本所属的任务。
步骤102,根据每个样本所属的任务,依次将每个样本放入对应的样本队列。
在本申请实施例中,由于对多任务模型中的多个任务的训练目标不同,因此训练各个任务所使用的样本也可以是不同的,从而可以根据训练样本集中各样本所属的任务对训练样本集进行分类,以将属于同一任务的样本放入相同的样本队列。从而可以利用一个样本队列中的样本单独对多任务模型中的一个任务进行训练。
作为一种可能的实现方式,还可以在多任务模型训练的过程中,实时获取训练样本集,并在每获取到一个样本时,便根据该样本所属的任务将其放入相应的样本队列。
步骤103,在任一样本队列中的样本数量达到训练数据要求的情况下,利用任一样本队列中的数据,对多任务模型中的共享网络层及与任一样本队列关联的任务对应的目标子网络层进行训练,以生成与任一样本队列关联的任务对应的模型参数更新梯度。
其中,共享网络层,是指多任务模型的每个任务均需要使用的网络层。子网络层,是指多任务模型中由任一个任务单独使用的网络层。目标子网络层,是指当前需要训练的任务单独使用的子网络层。
在本申请实施例中,由于样本队列中的样本数量达到一定数量时,才能保证对任务的训练效果,因此可以预先设置批数据的数量(即训练数据要求)。从而在对训练数据集中的样本放入相应样本队列的过程中,可以实时确定各样本队列中的样本数量,并在任一样本队列中的样本数量达到预先设置的批数据的数量时,将该样本队列中的各样本依次输入多任务模型中,以利用该样本队列中的样本对多任务模型中的共享网络层进行训练,以及对与该样本队列关联的任务对应的目标子网络层进行训练,确定与该样本队列关联的任务对应的模型参数更新梯度。
步骤104,根据更新梯度,对参数服务器中共享网络层及目标子网络层的参数进行更新。
其中,参数服务器,是指用于存储多任务模型的模型参数的服务器,可以接受计算节点的参数查询和更新请求,以对存储的模型参数进行更新。
在本申请实施例中,利用与任务关联的样本队列中的样本对多任务模型中的该任务进行一轮训练之后,可以将生成的模型参数更新梯度发送至参数服务器,以使参数服务器根据生成的模型参数更新梯度中包括的对目标子网络层的更新梯度,对目标子网络层的模型参数进行更新,以及可以根据生成的模型参数更新梯度中包括的对共享网络层的更新梯度,对共享网络层的模型参数进行更新。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本所属的任务,依次将每个样本放入对应的样本队列,并在任一样本队列中的样本数量达到训练数据要求的情况下,利用该样本队列中的数据,对多任务模型中的共享网络层及与该样本队列关联的任务对应的目标子网络层进行训练,以生成与该样本队列关联的任务对应的模型参数更新梯度,进而根据更新梯度,对参数服务器中的共享网络层及目标子网络层的参数进行更新。由此,通过在多任务模型中的某个任务对应的样本数量达到批数据要求时,仅利用该任务对应的样本对多任务模型的共享网络层以及该任务对应的子网络层进行训练,而无需更新其他任务对应的子网络层的参数,从而实现了分布式训练多任务模型时的局部参数更新,提升了多任务模型的精度。
在本申请一种可能的实现形式中,可以通过标签技术对每个样本所属的任务进行标注,以实现对训练样本集的分类,以进一步提升多任务模型的训练效果。
下面结合图2,对本申请实施例提供的多任务模型的参数更新方法进行进一步说明。
图2为本申请实施例所提供的另一种多任务模型的参数更新方法的流程示意图。
如图2所示,该多任务模型的参数更新方法,包括以下步骤:
步骤201,获取训练样本集,其中,样本集中包括多个样本及每个样本所属的任务。
上述步骤201的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤202,根据每个样本所属的任务,确定每个样本对应的任务标签。
作为一种可能的实现方式,可以在每个样本中添加一个属性域,之后根据每个样本所属的任务确定每个样本对应的任务标签,进而根据每个样本对应的任务标签确定每个样本的属性域的取值,以通过属性域的取值标示样本的任务标签。
举例来说,多任务模型为广告推荐模型,广告推荐模型的包含两个任务:任务1为预测广告点击率,任务2为预测广告转化率。若样本1所属的任务为任务1,则可以将样本1对应的任务标签确定为1,并将样本1的属性域的取值确定为[1];若样本2所属的任务为任务2,则可以将样本2对应的任务标签确定为2,并将样本2的属性域的取值确定为[2];若样本3所属的任务为任务1与任务2,则可以将样本3对应的任务标签确定为1和2,并将样本3的属性域的取值确定为[1,2];依次类推,直至确定出训练样本集中所有样本的任务标签。
步骤203,根据每个样本对应的任务标签,依次将每个样本放入任务标签对应的样本队列中。
在本申请实施例中,确定出每个样本对应的任务标签之后,可以将具有相同任务标签的样本划分至同一个样本队列。
作为一种示例,样本对应的任务标签可以有一个或多个,从而可以根据样本对应的任务标签的数量对训练样本集进行划分,以确定各样本对应的样本队列。
情况一
在任一样本对应一个任务标签的情况下,确定该任务标签对应的样本队列中均包含任一样本。比如,若样本1对应的任务标签为1,则可以将样本1放入任务标签1对应的样本队列中,其中,任务标签1对应的样本队列中包含可以用于训练任务1的所有样本。
情况二
在任一样本对应多个任务标签的情况下,确定多个任务标签中的每个任务标签对应的样本队列中均包含任一样本。
举例来说,若样本2对应的任务标签为1和2,则可以既将样本2放入任务标签1对应的样本队列中,又将样本2放入任务标签2对应的样本队列中,以使样本2既可以用于训练任务1,又可以用于训练任务2。
步骤204,在任一样本队列中的样本数量达到训练数据要求的情况下,利用任一样本队列中的样本,对多任务模型中的共享网络层及与任一样本队列关联的任务对应的目标子网络层进行训练,以生成与任一样本队列关联的任务对应的模型参数更新梯度。
上述步骤204的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤205,根据任一样本队列关联的任务标签,确定目标参数服务器。
在本申请实施例中,不同任务对应的模型参数可以利用不同的参数服务器进行存储,以便于多任务模型的局部参数更新。因此,可以根据与各参数服务器存储的模型参数关联的任务,确定各参数服务器对应的任务标签,以建立任务标签与参数服务器的对应关系,对各参数服务器存储的模型参数所属的任务进行标示。从而,利用样本队列中的样本对多任务模型中的任一个任务完成一轮训练并生成模型参数更新梯度之后,可以根据样本队列对应的任务标签,以及任务标签与参数服务器的对应关系,确定与该任务标签对应的目标参数服务器。
步骤206,将生成的模型参数更新梯度发送给目标参数服务器,以使目标参数服务器,根据更新梯度对共享网络层及目标子网络层的参数进行更新。
在本申请实施例中,确定出存储当前训练的任务对应的目标参数服务器之后,可以将该任务对应的模型参数更新梯度发送至目标参数服务器,以使目标参数服务器根据对共享网络层的更新梯度,对存储的共享网络层的模型参数进行更新,以及根据对目标子网络层的更新梯度,对存储的目标子网络层的模型参数进行更新。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本所属的任务,确定每个样本对应的任务标签,并根据每个样本对应的任务标签,依次将每个样本放入任务标签对应的样本队列中,之后在任一样本队列中的样本数量达到训练数据要求的情况下,利用该样本队列中的数据,对多任务模型中的共享网络层及与该样本队列关联的任务对应的目标子网络层进行训练,以生成与该样本队列关联的任务对应的模型参数更新梯度,进而根据任一样本队列关联的任务标签,确定目标参数服务器,以将生成的模型参数更新梯度发送给目标参数服务器,以使目标参数服务器,根据更新梯度对共享网络层及目标子网络层的参数进行更新。由此,通过在标签技术对每个样本所属的任务进行标注,以便于对训练样本集进行分类,并通过不同的参数服务器存储不同任务对应的模型参数,进而在多任务模型中的某个任务对应的样本数量达到批数据要求时,仅利用该任务对应的样本对多任务模型的共享网络层以及该任务对应的子网络层进行训练,而无需更新其他任务对应的子网络层的参数,从而不仅实现了分布式训练多任务模型时的局部参数更新,提升了多任务模型的精度,而且进一步提升了局部参数更新的便捷性。
在本申请一种可能的实现形式中,还可以根据多任务模型中每个任务的权重,约束各任务对共享网络层的模型参数的更新幅度,以降低多任务的任务偏向性,进一步提升多任务模型的精度。
下面结合图3,对本申请实施例提供的多任务模型的参数更新方法进行进一步说明。
图3为本申请实施例所提供的再一种多任务模型的参数更新方法的流程示意图。
如图3所示,该多任务模型的参数更新方法,包括以下步骤:
步骤301,获取训练样本集,其中,样本集中包括多个样本及每个样本所属的任务。
步骤302,根据每个样本所属的任务,依次将每个样本放入对应的样本队列。
步骤303,在任一样本队列中的样本数量达到训练数据要求的情况下,利用任一样本队列中的样本,对多任务模型中的共享网络层及与任一样本队列关联的任务对应的目标子网络层进行训练,以生成与任一样本队列关联的任务对应的模型参数更新梯度。
上述步骤301-303的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤304,确定任一样本队列关联的任务的权重。
在本申请实施例中,由于对任务训练的次数越多,该任务对应的样本对多任务模型的优化效果越好,因此可以根据对任务训练的次数,即与任务关联的样本队列中的样本数量达到训练数据要求的次数,确定各任务的权重。
作为一种可能的实现方式,可以在利用样本队列中的样本对多任务模型中的共享网络层进行训练,以及对与该样本队列关联的任务对应的目标子网络层进行训练,并生成该任务对应的模型参数更新梯度之后,可以确定该任务关联的样本队列中的样本数量达到训练数据要求的次数,并将该次数确定为该任务的权重。
举例来说,在与任务1关联的样本队列中的样本数量第1次达到训练数据要求时,可以将任务1的权重确定为1;在与任务1关联的样本队列中的样本数量第2次达到训练数据要求时,可以将任务1的权重确定为2。
步骤305,根据权重及更新梯度,对参数服务器中共享网络层及目标子网络层的参数进行更新。
在本申请实施例中,确定出当前训练的任务的权重之后,可以根据该任务的权重与生成的该任务对应的模型参数更新梯度,对参数服务器中共享网络层的模型参数进行更新,以及对任务对应的目标子网络层的模型参数进行更新。
作为一种可能的实现方式,由于多任务模型中的共享网络层,可以对所有任务对应的样本队列中的样本进行处理,可以影响多任务模型中所有任务的性能,而每个任务对应的子网络层,仅对该任务对应的样本队列中的样本进行处理,而与多任务模型中其他任务的样本和性能均无关。因此,可以仅在更新共享网络层的参数时引入任务的权重,即在本申请实施例一种可能的实现方式中,上述步骤305,可以包括:
根据更新梯度,对目标子网络层的参数进行更新;
根据权重及更新梯度,确定共享网络层的更新梯度;
根据共享网络层的更新梯度,对共享网络层的参数进行更新。
在本申请实施例中,由于每个任务对应的子网络层,仅对该任务对应的样本队列中的样本进行处理,而与多任务模型中其他任务的样本和性能均无关,因此可以根据通过样本队列生成的模型参数更新梯度,直接对相应任务对应的子网络层中的参数进行更新,以使目标子网络层的参数更新过程仅与相应任务对应的样本队列有关,而不依赖于其他任务对应的样本,从而降低了多任务模型训练的任务偏向性,提升了各任务的训练精度。
在本申请实施例中,由于多任务模型中的共享网络层,可以对所有任务对应的样本队列中的样本进行处理,可以影响多任务模型中所有任务的性能。因此,可以根据通过每个任务对应的样本队列生成的模型参数更新梯度,共同对多任务模型中的共享网络层的模型参数进行更新,以使共享网络层在各任务中均可以具有较好的处理性能。
在本申请实施例一种可能的实现方式中,由于任务的权重,可以反映通过该任务对应的样本队列生成的梯度,在多任务模型训练过程中进行模型参数更新时的重要程度,因此,可以根据模型参数更新梯度及每个任务的权重,确定共享网络层的更新梯度,以根据共享网络层的更新梯度更新共享网络层中的模型参数时,通过任务的权重平衡各任务的样本队列对共享网络层的优化效果,保证共享网络层对各任务进行处理时均可以具有较高的精度。
可选的,可以将任务对模型参数的更新梯度与任务的权重的乘积,确定为共享网络层的更新梯度,并将共享网络层的更新梯度发送至参数服务器,以使参数服务器根据共享网络层的更新梯度,对共享网络层的参数进行更新。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本所属的任务,依次将每个样本放入对应的样本队列,并在任一样本队列中的样本数量达到训练数据要求的情况下,利用该样本队列中的数据,对多任务模型中的共享网络层及与该样本队列关联的任务对应的目标子网络层进行训练,以生成与该样本队列关联的任务对应的模型参数更新梯度,进而根据任务的权重及更新梯度,对参数服务器中共享网络层及目标子网络层的参数进行更新。由此,通过在多任务模型中的某个任务对应的样本数量达到批数据要求时,仅利用该任务对应的样本对多任务模型的共享网络层以及该任务对应的子网络层进行训练,而无需更新其他任务对应的子网络层的参数,并根据多任务模型中每个任务的权重,约束各任务对共享网络层的模型参数的更新幅度,从而不仅实现了分布式训练多任务模型时的局部参数更新,而且降低了多任务的任务偏向性,进一步提升了多任务模型的精度。
为了实现上述实施例,本申请还提出一种多任务模型的参数更新装置。
图4为本申请实施例提供的一种多任务模型的参数更新装置的结构示意图。
如图4所示,该多任务模型的参数更新装置40,包括:
获取模块41,用于获取训练样本集,其中,样本集中包括多个样本及每个样本所属的任务;
分类模块42,用于根据每个样本所属的任务,依次将每个样本放入对应的样本队列;
训练模块43,用于在任一样本队列中的样本数量达到训练数据要求的情况下,利用任一样本队列中的样本,对多任务模型中的共享网络层及与任一样本队列关联的任务对应的目标子网络层进行训练,以生成与任一样本队列关联的任务对应的模型参数更新梯度;
更新模块44,用于根据更新梯度,对参数服务器中共享网络层及目标子网络层的参数进行更新。
在实际使用时,本申请实施例提供的多任务模型的参数更新装置,可以被配置在任意电子设备中,以执行前述多任务模型的参数更新方法。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本所属的任务,依次将每个样本放入对应的样本队列,并在任一样本队列中的样本数量达到训练数据要求的情况下,利用该样本队列中的数据,对多任务模型中的共享网络层及与该样本队列关联的任务对应的目标子网络层进行训练,以生成与该样本队列关联的任务对应的模型参数更新梯度,进而根据更新梯度,对参数服务器中的共享网络层及目标子网络层的参数进行更新。由此,通过在多任务模型中的某个任务对应的样本数量达到批数据要求时,仅利用该任务对应的样本对多任务模型的共享网络层以及该任务对应的子网络层进行训练,而无需更新其他任务对应的子网络层的参数,从而实现了分布式训练多任务模型时的局部参数更新,提升了多任务模型的精度。
在本申请一种可能的实现形式中,上述分类模块42,包括:
第一确定单元,用于根据每个样本所属的任务,确定每个样本对应的任务标签;
分类单元,用于根据每个样本对应的任务标签,依次将每个样本放入任务标签对应的样本队列中。
进一步的,在本申请另一种可能的实现形式中,上述分类单元,包括:
第一确定子单元,用于在任一样本对应多个任务标签的情况下,确定多个任务标签中的每个任务标签对应的样本队列中均包含任一样本。
进一步的,在本申请再一种可能的实现形式中,上述更新模块44,包括:
第二确定单元,用于根据任一样本队列关联的任务标签,确定目标参数服务器;
发送单元,用于将生成的模型参数更新梯度发送给目标参数服务器,以使目标参数服务器,根据更新梯度对共享网络层及目标子网络层的参数进行更新。
进一步的,在本申请又一种可能的实现形式中,上述更新模块44,包括:
第三确定单元,用于确定任一样本队列关联的任务的权重;
更新单元,用于根据权重及更新梯度,对参数服务器中共享网络层及目标子网络层的参数进行更新。
进一步的,在本申请又一种可能的实现形式中,上述更新单元,包括:
第一更新子单元,用于根据更新梯度,对目标子网络层的参数进行更新;
第二确定子单元,用于根据权重及更新梯度,确定共享网络层的更新梯度;
第二更新子单元,用于根据共享网络层的更新梯度,对共享网络层的参数进行更新。
需要说明的是,前述对图1、图2、图3所示的多任务模型的参数更新方法实施例的解释说明也适用于该实施例的多任务模型的参数更新装置40,此处不再赘述。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本所属的任务,确定每个样本对应的任务标签,并根据每个样本对应的任务标签,依次将每个样本放入任务标签对应的样本队列中,之后在任一样本队列中的样本数量达到训练数据要求的情况下,利用该样本队列中的数据,对多任务模型中的共享网络层及与该样本队列关联的任务对应的目标子网络层进行训练,以生成与该样本队列关联的任务对应的模型参数更新梯度,进而根据任一样本队列关联的任务标签,确定目标参数服务器,以将生成的模型参数更新梯度发送给目标参数服务器,以使目标参数服务器,根据更新梯度对共享网络层及目标子网络层的参数进行更新。由此,通过在标签技术对每个样本所属的任务进行标注,以便于对训练样本集进行分类,并通过不同的参数服务器存储不同任务对应的模型参数,进而在多任务模型中的某个任务对应的样本数量达到批数据要求时,仅利用该任务对应的样本对多任务模型的共享网络层以及该任务对应的子网络层进行训练,而无需更新其他任务对应的子网络层的参数,从而不仅实现了分布式训练多任务模型时的局部参数更新,提升了多任务模型的精度,而且进一步提升了局部参数更新的便捷性。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图5示出了可以用来实施本申请的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM 503中,还可存储设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如多任务模型的参数更新方法。例如,在一些实施例中,多任务模型的参数更新方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到RAM 503并由计算单元501执行时,可以执行上文描述的多任务模型的参数更新方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行多任务模型的参数更新方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS(VirtualPrivate Server,虚拟专用服务器)服务中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,通过根据训练样本集中每个样本所属的任务,依次将每个样本放入对应的样本队列,并在任一样本队列中的样本数量达到训练数据要求的情况下,利用该样本队列中的数据,对多任务模型中的共享网络层及与该样本队列关联的任务对应的目标子网络层进行训练,以生成与该样本队列关联的任务对应的模型参数更新梯度,进而根据更新梯度,对参数服务器中的共享网络层及目标子网络层的参数进行更新。由此,通过在多任务模型中的某个任务对应的样本数量达到批数据要求时,仅利用该任务对应的样本对多任务模型的共享网络层以及该任务对应的子网络层进行训练,而无需更新其他任务对应的子网络层的参数,从而实现了分布式训练多任务模型时的局部参数更新,提升了多任务模型的精度。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (8)

1.一种多任务模型的参数更新方法,所述多任务模型为广告推荐模型,所述广告推荐模型包含两个任务,分别为预测广告点击率和预测广告转化率,其特征在于:
获取训练样本集,其中,所述样本集中包括多个样本及每个样本所属的任务;
根据所述每个样本所属的任务,依次将所述每个样本放入对应的样本队列,实时确定各样本队列的样本数量;
在任一样本队列中的样本数量达到训练数据要求的情况下,利用所述任一样本队列中的样本,对所述多任务模型中的共享网络层及与所述任一样本队列关联的任务对应的目标子网络层进行训练,以生成与所述任一样本队列关联的任务对应的模型参数更新梯度;
根据所述更新梯度,对参数服务器中所述共享网络层及所述目标子网络层的参数进行更新;
其中,在无监督训练场景中,所述样本为应用程序中广告的特征数据,所述特征数据包括广告类型、时长、标签;在有监督训练场景中,所述样本为训练数据和所述训练数据对应的标注数据,所述训练数据为应用程序中广告的特征数据,所述特征数据包括广告类型、时长、标签,所述标注数据为用户操作数据,所述操作数据包括用户对所述广告的点击率、观看时长、点赞数、转发数、分享数、转化率;
其中,所述根据所述每个样本所属的任务,依次将所述每个样本放入对应的样本队列中,包括:
根据所述每个样本所属的任务,确定每个样本对应的任务标签;
根据每个样本对应的任务标签,依次将每个样本放入所述任务标签对应的样本队列中;
其中,所述根据所述更新梯度,对参数服务器中所述共享网络层及所述目标子网络层的参数进行更新,包括:
确定所述任一样本队列关联的任务的权重;
根据所述权重及所述更新梯度,对参数服务器中所述共享网络层及所述目标子网络层的参数进行更新;
所述根据所述权重及所述更新梯度,对参数服务器中所述共享网络层及所述目标子网络层的参数进行更新,包括:
根据所述更新梯度,对所述目标子网络层的参数进行更新;
根据所述权重及所述更新梯度,确定所述共享网络层的更新梯度;
根据所述共享网络层的更新梯度,对所述共享网络层的参数进行更新。
2.如权利要求1所述的方法,其中,所述根据每个样本对应的任务标签,依次将每个样本放入所述任务标签对应的样本队列中,包括:
在任一样本对应多个任务标签的情况下,确定所述多个任务标签中的每个任务标签对应的样本队列中均包含所述任一样本。
3.如权利要求1所述的方法,其中,所述根据所述更新梯度,对参数服务器中所述共享网络层及所述目标子网络层的参数进行更新,包括:
根据所述任一样本队列关联的任务标签,确定目标参数服务器;
将所述生成的模型参数更新梯度发送给所述目标参数服务器,以使所述目标参数服务器,根据所述更新梯度对所述共享网络层及所述目标子网络层的参数进行更新。
4.一种多任务模型的参数更新装置,所述多任务模型为广告推荐模型,所述广告推荐模型包含两个任务,分别为预测广告点击率和预测广告转化率,包括:
获取模块,用于获取训练样本集,其中,所述样本集中包括多个样本及每个样本所属的任务;
分类模块,用于根据所述每个样本所属的任务,依次将所述每个样本放入对应的样本队列,实时确定各样本队列的样本数量;
训练模块,用于在任一样本队列中的样本数量达到训练数据要求的情况下,利用所述任一样本队列中的样本,对所述多任务模型中的共享网络层及与所述任一样本队列关联的任务对应的目标子网络层进行训练,以生成与所述任一样本队列关联的任务对应的模型参数更新梯度;
更新模块,用于根据所述更新梯度,对参数服务器中所述共享网络层及所述目标子网络层的参数进行更新;
其中,在无监督训练场景中,所述样本为应用程序中广告的特征数据,所述特征数据包括广告类型、时长、标签;在有监督训练场景中,所述样本为训练数据和所述训练数据对应的标注数据,所述训练数据为应用程序中广告的特征数据,所述特征数据包括广告类型、时长、标签,所述标注数据为用户操作数据,所述操作数据包括用户对所述广告的点击率、观看时长、点赞数、转发数、分享数、转化率;
其中,所述分类模块,包括:
第一确定单元,用于根据所述每个样本所属的任务,确定每个样本对应的任务标签;
分类单元,用于根据每个样本对应的任务标签,依次将每个样本放入所述任务标签对应的样本队列中;
所述更新模块,包括:
第三确定单元,用于确定所述任一样本队列关联的任务的权重;
更新单元,用于根据所述权重及所述更新梯度,对参数服务器中所述共享网络层及所述目标子网络层的参数进行更新;
所述更新单元,包括:
第一更新子单元,用于根据所述更新梯度,对所述目标子网络层的参数进行更新;
第二确定子单元,用于根据所述权重及所述更新梯度,确定所述共享网络层的更新梯度;
第二更新子单元,用于根据所述共享网络层的更新梯度,对所述共享网络层的参数进行更新。
5.如权利要求4所述的装置,其中,所述分类单元,包括:
第一确定子单元,用于在任一样本对应多个任务标签的情况下,确定所述多个任务标签中的每个任务标签对应的样本队列中均包含所述任一样本。
6.如权利要求4所述的装置,其中,所述更新模块,包括:
第二确定单元,用于根据所述任一样本队列关联的任务标签,确定目标参数服务器;
发送单元,用于将所述生成的模型参数更新梯度发送给所述目标参数服务器,以使所述目标参数服务器,根据所述更新梯度对所述共享网络层及所述目标子网络层的参数进行更新。
7.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-3中任一项所述的方法。
8.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使计算机执行权利要求1-3中任一项所述的方法。
CN202011474877.6A 2020-12-14 2020-12-14 多任务模型的参数更新方法、装置及电子设备 Active CN112559007B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202011474877.6A CN112559007B (zh) 2020-12-14 2020-12-14 多任务模型的参数更新方法、装置及电子设备
US17/444,687 US20210374542A1 (en) 2020-12-14 2021-08-09 Method and apparatus for updating parameter of multi-task model, and storage medium
EP21191012.0A EP3913545A3 (en) 2020-12-14 2021-08-12 Method and apparatus for updating parameter of multi-task model, and electronic device
KR1020210109539A KR20210110780A (ko) 2020-12-14 2021-08-19 멀티태스크 모델의 파라미터 업데이트 방법, 장치 및 전자 기기
JP2021191868A JP7194252B2 (ja) 2020-12-14 2021-11-26 マルチタスクモデルのパラメータ更新方法、装置及び電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011474877.6A CN112559007B (zh) 2020-12-14 2020-12-14 多任务模型的参数更新方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN112559007A CN112559007A (zh) 2021-03-26
CN112559007B true CN112559007B (zh) 2022-09-23

Family

ID=75063566

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011474877.6A Active CN112559007B (zh) 2020-12-14 2020-12-14 多任务模型的参数更新方法、装置及电子设备

Country Status (5)

Country Link
US (1) US20210374542A1 (zh)
EP (1) EP3913545A3 (zh)
JP (1) JP7194252B2 (zh)
KR (1) KR20210110780A (zh)
CN (1) CN112559007B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113610150B (zh) * 2021-08-05 2023-07-25 北京百度网讯科技有限公司 模型训练的方法、对象分类方法、装置及电子设备
WO2023060578A1 (en) * 2021-10-15 2023-04-20 Baidu.Com Times Technology (Beijing) Co., Ltd. Systems and methods for multi-task and multi-scene unified ranking
CN114356540A (zh) * 2021-10-30 2022-04-15 腾讯科技(深圳)有限公司 一种参数更新方法、装置、电子设备和存储介质
CN114240506A (zh) * 2021-12-21 2022-03-25 北京有竹居网络技术有限公司 多任务模型的建模方法、推广内容处理方法及相关装置
CN114792125B (zh) * 2022-04-15 2023-06-23 北京百度网讯科技有限公司 基于分布式训练的数据处理方法、装置、电子设备和介质
CN114860405B (zh) * 2022-05-17 2023-01-31 北京百度网讯科技有限公司 多任务模型的参数更新方法、装置和存储介质
CN117291669A (zh) * 2022-06-15 2023-12-26 脸萌有限公司 多任务模型训练方法、数据处理方法、装置及电子设备
CN115081630A (zh) * 2022-08-24 2022-09-20 北京百度网讯科技有限公司 多任务模型的训练方法、信息推荐方法、装置和设备
CN115358413A (zh) * 2022-09-14 2022-11-18 清华大学 一种点云多任务模型的训练方法、装置及电子设备
CN115690544B (zh) * 2022-11-11 2024-03-01 北京百度网讯科技有限公司 多任务学习方法及装置、电子设备和介质
CN116611858A (zh) * 2023-07-17 2023-08-18 深圳须弥云图空间科技有限公司 目标推荐方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881968A (zh) * 2020-07-22 2020-11-03 平安科技(深圳)有限公司 多任务分类方法、装置及相关设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203395B (zh) * 2016-07-26 2020-01-14 厦门大学 基于多任务深度学习的人脸属性识别方法
US11580407B2 (en) * 2016-09-06 2023-02-14 Mitsubishi Electric Corporation Learning device, signal processing device, and learning method
CN106778583B (zh) * 2016-12-07 2019-12-17 北京理工大学 基于卷积神经网络的车辆属性识别方法与装置
US10649806B2 (en) * 2017-04-12 2020-05-12 Petuum, Inc. Elastic management of machine learning computing
CN109919317A (zh) * 2018-01-11 2019-06-21 华为技术有限公司 一种机器学习模型训练方法和装置
US20210073615A1 (en) * 2018-04-12 2021-03-11 Nippon Telegraph And Telephone Corporation Neural network system, neural network method, and program
CN109447259A (zh) * 2018-09-21 2019-03-08 北京字节跳动网络技术有限公司 多任务处理及多任务处理模型训练方法、装置和硬件装置
CN111461156A (zh) * 2019-01-18 2020-07-28 搜狗(杭州)智能科技有限公司 一种多任务训练方法及装置
CN110889510B (zh) * 2019-12-05 2022-06-07 武汉大学 一种面向分布式机器学习任务的在线调度方法及装置
CN111461343B (zh) * 2020-03-13 2023-08-04 北京百度网讯科技有限公司 模型参数更新方法及其相关设备
CN111191642B (zh) * 2020-04-08 2020-07-21 腾讯科技(深圳)有限公司 基于多任务分类的指纹防伪识别方法、装置及电子设备
CN111709533B (zh) * 2020-08-19 2021-03-30 腾讯科技(深圳)有限公司 机器学习模型的分布式训练方法、装置以及计算机设备
CN111813869B (zh) * 2020-08-21 2021-03-23 支付宝(杭州)信息技术有限公司 一种基于分布式数据的多任务模型训练方法及系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881968A (zh) * 2020-07-22 2020-11-03 平安科技(深圳)有限公司 多任务分类方法、装置及相关设备

Also Published As

Publication number Publication date
JP7194252B2 (ja) 2022-12-21
EP3913545A2 (en) 2021-11-24
EP3913545A3 (en) 2022-03-16
JP2022028871A (ja) 2022-02-16
US20210374542A1 (en) 2021-12-02
CN112559007A (zh) 2021-03-26
KR20210110780A (ko) 2021-09-09

Similar Documents

Publication Publication Date Title
CN112559007B (zh) 多任务模型的参数更新方法、装置及电子设备
CN112561077B (zh) 多任务模型的训练方法、装置及电子设备
CN113342345A (zh) 深度学习框架的算子融合方法、装置
CN113344089B (zh) 模型训练方法、装置及电子设备
CN111143039B (zh) 一种虚拟机的调度方法、装置及计算机存储介质
CN112527383A (zh) 用于生成多任务模型的方法、装置、设备、介质和程序
CN114881129A (zh) 一种模型训练方法、装置、电子设备及存储介质
CN113657483A (zh) 模型训练方法、目标检测方法、装置、设备以及存储介质
CN113627536A (zh) 模型训练、视频分类方法,装置,设备以及存储介质
CN114816393A (zh) 信息生成方法、装置、设备以及存储介质
CN113344074A (zh) 模型训练方法、装置、设备及存储介质
CN112560936A (zh) 模型并行训练方法、装置、设备、存储介质和程序产品
CN113190746A (zh) 推荐模型的评估方法、装置及电子设备
CN113239273B (zh) 用于生成文本的方法、装置、设备以及存储介质
CN113360672A (zh) 用于生成知识图谱的方法、装置、设备、介质和产品
CN114330576A (zh) 模型处理方法、装置、图像识别方法及装置
CN113360693A (zh) 确定图像标签的方法及其装置、电子设备以及存储介质
CN112948584A (zh) 短文本分类方法、装置、设备以及存储介质
CN114860405B (zh) 多任务模型的参数更新方法、装置和存储介质
CN114331379B (zh) 用于输出待办任务的方法、模型训练方法和装置
CN114926447B (zh) 用于训练模型的方法、用于检测目标的方法和装置
CN114547448B (zh) 数据处理、模型训练方法、装置、设备、存储介质及程序
CN114329219A (zh) 数据处理方法、用于输出知识内容的方法及装置
CN117651167A (zh) 资源推荐方法、装置、设备以及存储介质
CN115563390A (zh) 一种课程推荐列表的确定方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant