CN115080790A - 影片数据处理方法、装置、介质及电子设备 - Google Patents

影片数据处理方法、装置、介质及电子设备 Download PDF

Info

Publication number
CN115080790A
CN115080790A CN202110260872.1A CN202110260872A CN115080790A CN 115080790 A CN115080790 A CN 115080790A CN 202110260872 A CN202110260872 A CN 202110260872A CN 115080790 A CN115080790 A CN 115080790A
Authority
CN
China
Prior art keywords
gpu
deep learning
learning training
block
training model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110260872.1A
Other languages
English (en)
Inventor
林海
马稼明
谭成
郭汉龙
葛正荣
黄少琪
张琰琳
于亚茹
姜齐
陈家烁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Telecom Corp Ltd
Original Assignee
China Telecom Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Telecom Corp Ltd filed Critical China Telecom Corp Ltd
Priority to CN202110260872.1A priority Critical patent/CN115080790A/zh
Publication of CN115080790A publication Critical patent/CN115080790A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明提供了一种影片数据处理方法,包括:获取第一影片数据样本,所述第一影片数据样本包含历史影片数据;利用所述第一影片数据样本,对每个GPU区块中每个GPU的深度学习训练模型中的参数进行迭代更新,得到每个GPU区块中每个GPU的深度学习训练模型的局部更新参数;根据每个GPU区块中每个GPU的深度学习训练模型的局部更新参数,确定每个GPU区块中的深度学习训练模型的区块同步参数;根据每个GPU区块中的深度学习训练模型的区块同步参数,确定所有GPU区块中的深度学习训练模型的全局同步参数,以此方式训练模型可以提升通信效率,且符合实际运营时计算效率的要求,有效地避免每台设备在并行化运行时通信效率被约束的缺陷。

Description

影片数据处理方法、装置、介质及电子设备
技术领域
本发明涉及影片数据处理的技术领域,具体而言,涉及一种影片数据处理方法、装置、介质及电子设备。
背景技术
随机梯度下降(SGD)具有极高的效率,因此成为目前大多数分布式机器学习应用中最常见的训练方法。例如,在考虑计算效率时,可以使用mini-batch SGD训练模型,在使用mini-batch SGD训练模型的过程中,虽然mini-batch SGD能够计算出多个随机梯度,但是却不符合实际计算效率的要求。再例如,在考虑减少训练时间时,可以使用大批量SGD训练模型,在使用大批量SGD训练模型的过程中,由于没有正确考虑设备的局部并行化,以及设备间的通信效率,导致设备间的通信效率较低。尤其是当设备的数量增加时,每台设备的并行化程度会严重约束通信效率。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明实施例的目的在于提供一种影片数据处理方法、装置、介质及电子设备,进而至少可以在一定程度上提升通信效率,且符合实际运营时计算效率的要求,有效地避免每台设备在并行化运行时通信效率被约束的缺陷。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本发明的实践而习得。
根据本发明实施例的第一方面,提供了一种影片数据处理方法,应用于影片系统,影片系统包括深度学习训练模型,深度学习训练模型部署在多台服务器中每台服务器的GPU区块,该方法包括:采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数;其中,采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数包括:获取第一影片数据样本,第一影片数据样本包含历史影片数据;利用第一影片数据样本,对每个GPU区块中每个GPU的深度学习训练模型中的参数进行迭代更新,得到每个GPU区块中每个GPU的深度学习训练模型的局部更新参数;根据每个GPU区块中每个GPU的深度学习训练模型的局部更新参数,确定每个GPU区块中的深度学习训练模型的区块同步参数;根据每个GPU区块中的深度学习训练模型的区块同步参数,确定所有GPU区块中的深度学习训练模型的全局同步参数。
在本发明的一些实施例中,每个GPU区块中每个GPU的深度学习训练模型的局部更新参数的表达式包括:
Figure BDA0002969918200000021
其中,
Figure BDA0002969918200000022
表示第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过H次局部迭代更新后得到的局部更新参数,
Figure BDA0002969918200000023
表示第t轮训练过程中局部迭代更新之前第l个GPU区块中第k个GPU的深度学习训练模型的参数,γ表示学习率,Bloc表示在一次局部迭代中所需所述第一影片数据样本的数量,i表示所述第一影片数据样本,
Figure BDA0002969918200000024
表示第t轮训练过程中第1个GPU区块中第k个GPU在第h-1次局部迭代过程中所需要的第一影片数据样本的集合,fi表示第i个所述第一影片数据样本的损失函数。
在本发明的一些实施例中,每个GPU区块中的深度学习训练模型的区块同步参数的表达式包括:
Figure BDA0002969918200000025
其中,
Figure BDA0002969918200000026
定示第t轮训练过程中第l个GPU区块中的深度学习训练模型在第一次区块同步过程中的区块同步参数,
Figure BDA0002969918200000027
表示第t轮训练过程中区块同步之前第l个GPU区块中的深度学习训练模型的参数,Kl表示第l个GPU区块中GPU的总数,
Figure BDA0002969918200000028
表示在第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过H次局部迭代更新后得到的局部更新参数。
在本发明的一些实施例中,所有GPU区块中的深度学习训练模型的全局同步参数的表达式包括:
Figure BDA0002969918200000031
其中,
Figure BDA0002969918200000032
表示第t+1轮训练过程中所有GPU区块中的深度学习训练模型的全局同步参数,
Figure BDA0002969918200000033
表示第t轮训练过程中所有GPU区块中的深度学习训练模型的全局同步参数,K为所有GPU区块中GPU的总数,
Figure BDA0002969918200000034
表示第t轮训练过程中所有GPU区块中每个GPU区块的深度学习训练模型在第Hb次区块同步过程中的区块同步参数。
在本发明的一些实施例中,该方法还包括:获取第二影片数据样本,所述第二影片数据样本与所述第一影片数据样本不同,所述第二影片数据样本包含历史影片数据和新影片数据;利用所述历史影片数据,对全局同步后的深度学习训练模型进行训练,得到所述历史影片数据的类别序列,以及利用所述新影片数据,对所述全局同步后的深度学习训练模型进行训练,得到所述新影片数据的类别序列;根据所述历史影片数据的类别序列和所述新影片数据的类别序列,获取本次训练的损失函数;循环以上步骤,得到预测模型,所述预测模型中包含历史类别标签和新增类别标签。
在本发明的一些实施例中,所述历史影片数据的类别序列的表达式包括:
qd=od 1≤d≤n
其中,qd表示所述历史影片数据的类别序列,d表示所述历史影片数据的类别序列中类别标签,n表示全局同步后的深度学习训练模型中类别标签的总数。
在本发明的一些实施例中,所述新影片数据的类别序列的表达式包括:
qd=αod+βn+1≤d≤n+m
其中,qd表示所述新影片数据的类别序列,d表示所述新影片数据的类别序列中类别标签,α和β表示全局同步后的深度学习训练模型中的偏置参数,n表示全局同步后的深度学习训练模型中类别标签的总数,n+m表示全局同步后的深度学习训练模型基于新影片数据增加类别后的类别总数。
在本发明的一些实施例中,计算所述损失函数的公式为:
Figure BDA0002969918200000041
其中,n+m表示全局同步后的深度学习训练模型基于新影片数据增加类别后的类别总数,qd表示所述历史影片数据的类别序列和/或所述新影片数据的类别序列。
在本发明的一些实施例中,该方法还包括:将所述历史影片数据和/或所述新影片数据存储在分布式搜索引擎;接收用户输入的影片关键词;基于所述影片关键词,从所述分布式搜索引擎中调用与所述影片关键词对应的接口,利用所述接口调用与所述影片关键词相匹配的影片数据;向终端发送与所述影片关键词相匹配的影片数据。
根据本发明实施例的第二方面,提供了一种影片数据处理装置,应用于影片系统,所述影片系统包括深度学习训练模型,所述深度学习训练模型部署在多台服务器中每台服务器的GPU区块,该装置包括:第一获取模块,用于获取第一影片数据样本,所述第一影片数据样本包含历史影片数据;局部迭代更新模块,利用所述第一影片数据样本,对每个GPU区块中每个GPU的深度学习训练模型中的参数进行迭代更新,得到每个GPU区块中每个GPU的深度学习训练模型的局部更新参数;区块同步模块,用于根据每个GPU区块中每个GPU的深度学习训练模型的局部更新参数,确定每个GPU区块中的深度学习训练模型的区块同步参数;全局同步模块,用于根据每个GPU区块中的深度学习训练模型的区块同步参数,确定所有GPU区块中的深度学习训练模型的全局同步参数。
在本发明的一些实施例中,每个GPU区块中每个GPU的深度学习训练模型的局部更新参数的表达式包括:
Figure BDA0002969918200000042
其中,
Figure BDA0002969918200000043
表示第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过H次局部迭代更新后得到的局部更新参数,
Figure BDA0002969918200000053
表示第t轮训练过程中局部迭代更新之前第l个GPU区块中第k个GPU的深度学习训练模型的参数,γ表示学习率,Bloc表示在一次局部迭代中所需所述第一影片数据样本的数量,i表示所述第一影片数据样本,I表示第t轮训练过程中第1个GPU区块中第k个GPU在第h-1次局部迭代过程中所需要的第一影片数据样本的集合,fi表示第i个所述第一影片数据样本的损失函数。
在本发明的一些实施例中,每个GPU区块中的深度学习训练模型的区块同步参数的表达式包括:
Figure BDA0002969918200000051
其中,
Figure BDA0002969918200000054
表示第t轮训练过程中第l个GPU区块中的深度学习训练模型在第一次区块同步过程中的区块同步参数,
Figure BDA0002969918200000055
表示第t轮训练过程中区块同步之前第l个GPU区块中的深度学习训练模型的参数,Kl表示第l个GPU区块中GPU的总数,
Figure BDA0002969918200000056
表示在第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过H次局部迭代更新后得到的局部更新参数。
在本发明的一些实施例中,所有GPU区块中的深度学习训练模型的全局同步参数的表达式包括:
Figure BDA0002969918200000052
其中,
Figure BDA0002969918200000057
表示第t+1轮训练过程中所有GPU区块中的深度学习训练模型的全局同步参数,
Figure BDA0002969918200000058
表示第t轮训练过程中所有GPU区块中的深度学习训练模型的全局同步参数,K为所有GPU区块中GPU的总数,
Figure BDA0002969918200000059
表示第t轮训练过程中所有GPU区块中每个GPU区块的深度学习训练模型在第Hb次区块同步过程中的区块同步参数。
在本发明的一些实施例中,该装置还包括:第二获取模块,用于获取第二影片数据样本,所述第二影片数据样本与所述第一影片数据样本不同,所述第二影片数据样本包含历史影片数据和新影片数据;类别标签增加模块,利用所述历史影片数据,对全局同步后的深度学习训练模型进行训练,得到所述历史影片数据的类别序列,以及利用所述新影片数据,对所述全局同步后的深度学习训练模型进行训练,得到所述新影片数据的类别序列;第三获取模块,用于根据所述历史影片数据的类别序列和所述新影片数据的类别序列,获取本次训练的损失函数;循环模块,用于循环以上步骤,得到预测模型,所述预测模型中包含历史类别标签和新增类别标签。
在本发明的一些实施例中,所述历史影片数据的类别序列的表达式包括:
qd=od 1≤d≤n
其中,qd表示所述历史影片数据的类别序列,d表示所述历史影片数据的类别序列中类别标签,n表示全局同步后的深度学习训练模型中类别标签的总数。
在本发明的一些实施例中,所述新影片数据的类别序列的表达式包括:
qd=αod+β n+1≤d≤n+m
其中,qd表示所述新影片数据的类别序列,d表示所述新影片数据的类别序列中类别标签,α和β表示全局同步后的深度学习训练模型中的偏置参数,n表示全局同步后的深度学习训练模型中类别标签的总数,n+m表示全局同步后的深度学习训练模型基于新影片数据增加类别后的类别总数。
在本发明的一些实施例中,计算所述损失函数的公式为:
Figure BDA0002969918200000061
其中,n+m表示全局同步后的深度学习训练模型基于新影片数据增加类别后的类别总数,qd表示所述历史影片数据的类别序列和/或所述新影片数据的类别序列。
在本发明的一些实施例中,该装置还包括:存储模块,用于将所述历史影片数据和/或所述新影片数据存储在分布式搜索引擎;接收模块,用于接收用户输入的影片关键词;匹配模块,基于所述影片关键词,从所述分布式搜索引擎中调用与所述影片关键词对应的接口,利用所述接口调用与所述影片关键词相匹配的影片数据;发送模块,用于向终端发送与所述影片关键词相匹配的影片数据。
根据本发明实施例的第三方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中第一方面所述的影片数据处理方法。
根据本发明实施例的第四方面,提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中第一方面所述的影片数据处理方法。
本发明实施例提供的技术方案可以包括以下有益效果:
在本发明的一些实施例所提供的技术方案中,采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数,以此方式训练模型可以提升通信效率,且符合实际运营时计算效率的要求,有效地避免每台设备在并行化运行时通信效率被约束的缺陷。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本发明实施例的影片数据处理方法或影片数据处理装置的示例性系统架构的示意图;
图2示意性示出了根据本发明的实施例的影片数据处理方法的流程图;
图3示意性示出了根据本发明的另一个实施例的影片数据处理方法的流程图;
图4示意性示出了根据本发明的另一个实施例的影片数据处理方法的流程图;
图5示意性示出了根据本发明的实施例的GPU内部迭代更新参数的示意图;
图6示意性示出了根据本发明的实施例的采用层次化随机梯度下降方式更新参数的示意图;
图7示意性示出了根据本发明的实施例的影片数据处理方法的方框图;
图8示意性示出了根据本发明的另一个实施例的影片数据处理装置的方框图;
图9示意性示出了根据本发明的另一个实施例的影片数据处理装置的方框图;
图10示出了适于用来实现本发明实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本发明的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本发明的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
图1示出了可以应用本发明实施例的影片数据处理方法或影片数据处理装置的示例性系统架构的示意图。在本发明的一些实施例中,整个系统架构主要包括三部分:数据准备部分、分布式训练部分以及应用部分。其中数据准备部分:包括对影片数据的爬取,对数据进行预处理、特征工程以及数据标注;分布式训练部分:主要包括对影片数据进行分布式训练的计算节点、参数服务节点、深度学习训练模型、在深度学习训练模型中使用的层次化局部SGD优化算法和增量学习的在线学习算法,以及用于存储和检索影片数据的Elasticsearch;应用部分:主要包括用于影片数据进行检测和测试的前端页面以及相关影片的推荐服务等。
如图1所示,系统架构100可以包括应用110、影片系统120、和数据处理工具130。其中,应用110可以是与影片系统120相关联的应用。例如,用户在终端设备的前端页面(例如,应用110的用户交互界面)可以输入影片关键词,影片系统120可以接收到用户输入的影片关键词,并基于所述影片关键词,从影片系统120的分布式搜索引擎中调用与所述影片关键词对应的接口,利用所述接口调用与所述影片关键词相匹配的影片数据,然后向终端发送与所述影片关键词相匹配的影片数据,以使得可以在终端的应用110的用户交互界面上展示与该影片关键词相匹配的影片数据。另外,在本实施例中,影片系统120还可以向终端的应用110推荐服务,例如影片系统120中的新片宣传服务等等。
影片系统120中包含了深度学习训练模型,该深度学习训练模型分别部署在多个计算节点(例如,GPU)中,采用层次化局部随机梯度下降(即层次化局部SGD)的方式,获取深度学习训练模型的全局同步参数。具体地,通过数据处理工具130对终端数据或服务器数据进行加工处理,例如,通过爬虫工具获取终端数据或服务器数据,并对其进行数据预处理和数据标注,获得第一影片数据样本,第一影片数据样本中包含历史影片数据。利用所述第一影片数据样本,对每个计算节点区块中每个计算节点的深度学习训练模型中的参数进行迭代更新,得到每个计算节点区块中每个计算节点的深度学习训练模型的局部更新参数,并根据每个计算节点区块中每个计算节点的深度学习训练模型的局部更新参数,确定每个计算节点区块中的深度学习训练模型的区块同步参数,然后根据每个计算节点区块中的深度学习训练模型的区块同步参数,确定所有计算节点区块中的深度学习训练模型的全局同步参数,以此方式即实现采用层次化局部SGD的方式,获取深度学习训练模型的全局同步参数,以此方式训练模型可以提升通信效率,且符合实际运营时计算效率的要求,有效地避免每台设备在并行化运行时通信效率被约束的缺陷。在本实施例中,可以采用参数服务节点计算获取深度学习训练模型的全局同步参数。
在本发明的一些实施例中,当采用层次化局部SGD的方式,获取深度学习训练模型的全局同步参数之后,可以采用增量学习方式获取深度学习训练模型中的新类别标签。例如,获取第二影片数据样本,所述第二影片数据样本与所述第一影片数据样本不同,所述第二影片数据样本包含历史影片数据和新影片数据,利用所述历史影片数据,对全局同步后的深度学习训练模型进行训练,得到所述历史影片数据的类别序列,以及利用所述新影片数据,对所述全局同步后的深度学习训练模型进行训练,得到所述新影片数据的类别序列,根据所述历史影片数据的类别序列和所述新影片数据的类别序列,获取本次训练的损失函数,循环以上步骤,得到预测模型,所述预测模型中包含历史类别签和新增类别标签。
在本发明的一些实施例中,上述历史影片数据和/或新影片数据存储在分布式搜索引擎(例如,Elastic search)。
图2示意性示出了根据本发明的实施例的影片数据处理方法的流程图。在本实施例中,影片数据处理方法应用于影片系统,所述影片系统包括深度学习训练模型,所述深度学习训练模型部署在多台服务器中每台服务器的GPU区块。
上述影片数据处理方法可以包括采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数。其中,采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数具体包括步骤S210~步骤S240,如图2所示。
在步骤S210中,获取第一影片数据样本,所述第一影片数据样本包含历史影片数据。
在步骤S220中,利用所述第一影片数据样本,对每个GPU区块中每个GPU的深度学习训练模型中的参数进行迭代更新,得到每个GPU区块中每个GPU的深度学习训练模型的局部更新参数。
在步骤S230中,根据每个GPU区块中每个GPU的深度学习训练模型的局部更新参数,确定每个GPU区块中的深度学习训练模型的区块同步参数。
在步骤S240中,根据每个GPU区块中的深度学习训练模型的区块同步参数,确定所有GPU区块中的深度学习训练模型的全局同步参数。
该方法可以采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数,以此方式训练模型可以提升通信效率,且符合实际运营时计算效率的要求,有效地避免每台设备在并行化运行时通信效率被约束的缺陷。
在本发明的一个实施例中,上述影片系统包括深度学习训练模型,所述深度学习训练模型部署在多台服务器中每台服务器的GPU区块。例如,将大量GPU成组划分在多个服务器上,每组称为一个GPU区块,GPU区块中包含至少两个GPU,深度学习训练模型分布在每个GPU上。
在本发明的一个实施例中,上述第一影片数据样本包含历史影片数据。例如,历史影片数据可以包含历史影片的名称、类别、简介等等,但不限于此。
在本发明的一个实施例中,通过图1中所示的数据处理工具130对影片数据进行处理可以获取到第一影片数据样本。例如,在获取第一影片数据样本之前,该方法还可以包括:采用网络爬虫技术,从各个相关影视网站爬取影片数据,并采用数据预处理方法,对爬取的影片数据进行初步清洗,然后采用标注工具,对处理完成的影片数据进行标注,得到第一影片数据样本,使得后续利用该第一影片数据样本训练模型时得到的结果更加准确。
在本发明的一个实施例中,采用层次化局部随机梯度下降训练方式,更新每块GPU上的局部模型(即上述深度学习训练模型),进一步的,在局部更新之后,会在GPU区块内部进行一次快速同步。在区块更新后,会对所有的GPU区块进行全局的同步,从而完成一次全局的参数更新。例如,采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数。具体地,对GPU中深度学习训练模型的参数进行迭代更新,然后基于迭代更新的参数进行GPU区块内部的同步更新,最后基于所有GPU区块内部的同步更新的参数进行所有GPU区块内部的同步更新的参数之间的同步更新,以此方式实现了层次化局部更新深度学习训练模型中的参数。
在本发明的一个实施例中,每个GPU区块中每个GPU的深度学习训练模型的局部更新参数的表达式(1)包括:
Figure BDA0002969918200000121
其中,
Figure BDA0002969918200000123
表示第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过H次局部迭代更新后得到的局部更新参数,
Figure BDA0002969918200000124
表示第t轮训练过程中局部迭代更新之前第l个GPU区块中第k个GPU的深度学习训练模型的参数,γ表示学习率,Bloc表示在一次局部迭代中所需所述第一影片数据样本的数量,i表示所述第一影片数据样本,
Figure BDA0002969918200000125
表示第t轮训练过程中第1个GPU区块中第k个GPU在第h-1次局部迭代过程中所需要的第一影片数据样本的集合,fi表示第i个所述第一影片数据样本的损失函数。
参考图5,节点区块1可以为上述GPU区块,在该节点区块1中包含计算节点1……·计算节点c,计算节点可以为上述GPU。在节点区块1中的每个计算节点部署深度学习训练模型。在本实施例中,从第一影片数据样本的集合中获取固定数量的第一影片数据样本,对每个计算节点上的深度学习训练模型的参数进行多次迭代更新。例如,在计算节点1上的深度学习训练模型,第一次迭代更新的结果为w1,通过多次迭代更新后,最后一次迭代更新的结果为g1。在计算节点c上的深度学习训练模型,第一次迭代更新的结果为wc,通过多次迭代更新后,最后一次迭代更新的结果为gc。在本实施例中,将每个计算节点最后一次迭代更新的结果输出到参数服务节点d中,由该参数服务节点d基于每个计算节点最后一次迭代更新的结果(即g1……gc),利用上述表达式(1)进行节点区块1内部的同步更新,得到深度学习训练模型的区块同步参数w。
在本发明的一个实施例中,每个GPU区块中的深度学习训练模型的区块同步参数的表达式(2)包括:
Figure BDA0002969918200000122
其中,
Figure BDA0002969918200000132
表示第t轮训练过程中第l个GPU区块中的深度学习训练模型在第一次区块同步过程中的区块同步参数,
Figure BDA0002969918200000133
表示第t轮训练过程中区块同步之前第l个GPU区块中的深度学习训练模型的参数,Kl表示第l个GPU区块中GPU的总数,
Figure BDA0002969918200000134
表示在第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过H次局部迭代更新后得到的局部更新参数。
在本发明的一个实施例中,所有GPU区块中的深度学习训练模型的全局同步参数的表达式(3)包括:
Figure BDA0002969918200000131
其中,
Figure BDA0002969918200000135
表示第t+1轮训练过程中所有GPU区块中的深度学习训练模型的全局同步参数,
Figure BDA0002969918200000136
表示第t轮训练过程中所有GPU区块中的深度学习训练模型的全局同步参数,K为所有GPU区块中GPU的总数,
Figure BDA0002969918200000137
表示第t轮训练过程中所有GPU区块中每个GPU区块的深度学习训练模型在第Hb次区块同步过程中的区块同步参数。
参考图6,D1和D2分别表示GPU区块1和GPU区块2。其中,GPU区块1中包含两个GPU,分别为GPU1和GPU2,GPU区块2中包含两个GPU,分别为GPU3和GPU4。在GPU1、GPU2、GPU3、GPU4分别部署有深度学习训练模型。在本实施例中,从第一影片数据样本的集合中抽取相同批尺寸的第一影片数据样本,将相同批尺寸的第一影片数据样本输入到每个GPU中的深度学习训练模型,利用多个相同批尺寸的第一影片数据样本,对每个GPU中的深度学习训练模型的参数进行多次迭代更新。例如,如图6所示,对于每个GPU中的深度学习训练模型,批尺寸为2(即上述Bloc=2,如图6所示一次局部迭代中所需第一影片数据样本的数量为2,通过2个第一影片数据样本对深度学习训练模型的参数进行一次局部迭代,获取参数Δω),迭代更新次数为3(即上述H=3)。即一次迭代更新需要两个第一影片数据样本,整个局部迭代更新过程中的迭代更新次数为3。GPU区块内部的同步次数为2(即Hb=2)。通过上述表达式(1)可以获取到每个GPU中的深度学习训练模型在经过三次局部迭代更新后的局部更新参数ω′。另外,图6所示的Δω表示上述表达式(1)中的
Figure BDA0002969918200000138
即第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过h-1次局部迭代更新后得到的局部更新参数。对于D1和D2,通过上述表达式(2)可以获取到深度学习训练模型的区块同步参数ω1,即利用GPU1和GPU2中的深度学习训练模型在经过三次局部迭代更新后的局部更新参数ω′来计算得到深度学习训练模型的区块同步参数ω1,利用GPU3和GPU4中的深度学习训练模型在经过三次局部迭代更新后的局部更新参数ω′来计算得到深度学习训练模型的区块同步参数ω2。对于D1和D2,通过上述表达式(3)可以获取到深度学习训练模型的全局同步参数ω3,即利用GPU1和GPU2中的深度学习训练模型在经过三次局部迭代更新后的局部更新参数ω′计算得到的深度学习训练模型的区块同步参数ω1,以及利用GPU3和GPU4中的深度学习训练模型在经过三次局部迭代更新后的局部更新参数ω′计算得到的深度学习训练模型的区块同步参数ω2,计算深度学习训练模型的全局同步参数ω3。
图6示出的是一次获取深度学习训练模型的全局同步参数ω3的过程,在实际情况中,可以根据业务需求来具体设定全局同步的次数,以及在局部迭代过程中的批尺寸Bloc,局部迭代次数H、区块内部同步的次数Hb等等。
在本发明的一个实施例中,通过循环步骤S210~步骤S240,来获取准确的模型参数,即深度学习训练模型的全局同步参数ω3。
图3示意性示出了根据本发明的另一个实施例的影片数据处理方法的流程图。
如图3所示,上述方法还可以包括步骤S310~步骤S340。
在步骤S310中,获取第二影片数据样本,所述第二影片数据样本与所述第一影片数据样本不同,所述第二影片数据样本包含历史影片数据和新影片数据。
在步骤S320中,利用所述历史影片数据,对全局同步后的深度学习训练模型进行训练,得到所述历史影片数据的类别序列,以及利用所述新影片数据,对所述全局同步后的深度学习训练模型进行训练,得到所述新影片数据的类别序列。
在步骤S330中,根据所述历史影片数据的类别序列和所述新影片数据的类别序列,获取本次训练的损失函数。
在步骤S340中,循环步骤S310~步骤S330,得到预测模型,所述预测模型中包含历史类别签和新增类别标签。
该方法可以基于新影片数据增加新类别标签,有效地解决了相关技术中在对影片数据分类时存在的分类偏好问题。
在本发明的一个实施例中,采用增量学习技术,实现对新输入的样本(例如,输入到全局同步后的深度学习训练模型的新影片数据)进行训练时,消除该深度学习训练模型中全连接层拟合时出现的分类偏好问题。例如,在基于新影片数据对该深度学习训练模型进行训练时,可以利用该深度学习训练模型中的偏置参数α和β来增加新的类别标签。具体地,将新影片数据和历史影片数据作为验证集合输入到该深度学习训练模型中,用于训练该深度学习训练模型,训练结果输出为:
Figure BDA0002969918200000151
其中,历史影片数据的类别序列的表达式为qd=od 1≤d≤n。qd表示所述历史影片数据的类别序列,d表示所述历史影片数据的类别序列中类别标签,n表示全局同步后的深度学习训练模型中类别标签的总数。在本实例中,所述历史影片数据的类别序列中类别标签为n个类别标签中的一个或多个。
新影片数据的类别序列的表达式为qd=αod+β n+1≤d≤n+m。qd表示所述新影片数据的类别序列,d表示所述新影片数据的类别序列中类别标签,α和β表示全局同步后的深度学习训练模型中的偏置参数,n表示全局同步后的深度学习训练模型中类别标签的总数,n+m表示全局同步后的深度学习训练模型基于新影片数据增加类别后的类别总数。在本实例中,所述新影片数据的类别序列中类别标签为n+m个类别标签中的一个或多个。
在本发明的一个实施例中,在利用第二影片数据样本对全局同步后的深度学习训练模型进行训练时,需要对上述全局同步后的深度学习训练模型中的全连接分类器以及模型层的参数进行冻结,以免对其进行再次更新,用上述验证集训练全局同步后的深度学习训练模型,可以采用损失函数,例如,损失函数为交叉熵,计算所述损失函数的公式为:
Figure BDA0002969918200000152
其中,n+m表示全局同步后的深度学习训练模型基于新影片数据增加类别后的类别总数,qd表示所述历史影片数据的类别序列和/或所述新影片数据的类别序列。需要说明的是,qd是通过全局同步后的深度学习训练模型预测出的结果,y=d为人工标注的真实结果。损失函数为极大似然估计推导出的交叉熵。
在本发明的一个实施例中,循环步骤S310~步骤S330,可以得到预测模型,所述预测模型中包含历史类别签和新增类别标签。例如,通过循环步骤S310~步骤S330,获取预测模型,在得到预测模型之后,判断损失函数Lb是否收敛,如果收敛,将不再获取影片数据来训练模型,如果未收敛,继续获取影片数据来训练模型。
在本发明的一个实施例中,待Lb收敛之后,利用该预测模型对新影片数据进行分类时,可以通过该预测模型中的偏执参数来增加与该新影片数据相关的新类别标签,以使得得到的分类结果更加准确。
图4示意性示出了根据本发明的另一个实施例的影片数据处理方法的流程图。
如图4所示,上述步骤S230具体可以包括步骤S410~步骤S440。
在步骤S410中,将所述历史影片数据和/或所述新影片数据存储在分布式搜索引擎。
在步骤S420中,接收用户输入的影片关键词。
在步骤S430中,基于所述影片关键词,从所述分布式搜索引擎中调用与所述影片关键词对应的接口,利用所述接口调用与所述影片关键词相匹配的影片数据。
在步骤S440中,向终端发送与所述影片关键词相匹配的影片数据。
该方法可以用户输入的影片关键词检索出与所述影片关键词相匹配的影片数据,并向终端发送与所述影片关键词相匹配的影片数据,以使得用户可以在终端的应用界面上浏览到该影片数据。
在本发明的一个实施例中,针对预设模型可以制作HTML5页面,针对输出的需要,可以调用不同的API接口,用于影片查询与搜索。
在本发明的一个实施例中,针对预设模型可以制作推荐服务页面,针对输出的需要,可以调用不同的API接口,用于对影片的推荐服务。
对于当前的大规模的影片数据,通过上述影片数据处理方法,在深度学习分布式数据并行化过程中,利用层次化扩展训练框架,可以进一步提高局部随机梯度下降对实际应用中异质分布系统的适应性,并且在保证准确率的情况下,层次结构的SGD提高了通信效率。利用在全连接后引入的偏执参数来尽可能消除分类偏好现象,该增量学习方法提高了影片数据的深度学习分布式系统的在线学习能力。因此,本发明通过在影片深度学习分布式系统中引入新的优化方法和训练方法,提高了整个分布式影片系统装置的准确率、通信效率、以及模型在线学习能力,解决了模型训练的耗时问题,节省了人工成本。
图7示意性示出了根据本发明的实施例的影片数据处理装置的方框图。在本实施例中,影片数据处理装置700,应用于影片系统,所述影片系统包括深度学习训练模型,所述深度学习训练模型部署在多台服务器中每台服务器的GPU区块。
如图7所示,影片数据处理装置700包括第一获取模块702、局部迭代更新模块704、区块同步模块706和全局同步模块708。
具体地,第一获取模块702,用于获取第一影片数据样本,所述第一影片数据样本包含历史影片数据。
局部迭代更新模块704,利用所述第一影片数据样本,对每个GPU区块中每个GPU的深度学习训练模型中的参数进行迭代更新,得到每个GPU区块中每个GPU的深度学习训练模型的局部更新参数。
区块同步模块706,用于根据每个GPU区块中每个GPU的深度学习训练模型的局部更新参数,确定每个GPU区块中的深度学习训练模型的区块同步参数。
全局同步模块708,用于根据每个GPU区块中的深度学习训练模型的区块同步参数,确定所有GPU区块中的深度学习训练模型的全局同步参数。
该影片数据处理装置700可以采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数,以此方式训练模型可以提升通信效率,且符合实际运营时计算效率的要求,有效地避免每台设备在并行化运行时通信效率被约束的缺陷。
根据本发明的实施例,该影片数据处理装置700可以用于实现图2实施例描述的影片数据处理方法。
图8示意性示出了根据本发明的另一个实施例的影片数据处理装置的方框图。
如图8所示,上述影片数据处理装置700还可以包括第二获取模块710、类别标签增加模块712、第三获取模块714和循环模块716。
具体地,第二获取模块710,用于获取第二影片数据样本,所述第二影片数据样本与所述第一影片数据样本不同,所述第二影片数据样本包含历史影片数据和新影片数据。
类别标签增加模块712,利用所述历史影片数据,对全局同步后的深度学习训练模型进行训练,得到所述历史影片数据的类别序列,以及利用所述新影片数据,对所述全局同步后的深度学习训练模型进行训练,得到所述新影片数据的类别序列。
第三获取模块714,用于根据所述历史影片数据的类别序列和所述新影片数据的类别序列,获取本次训练的损失函数。
循环模块716,用于循环以上步骤,得到预测模型,所述预测模型中包含历史类别标签和新增类别标签。
该影片数据处理装置700可以基于新影片数据增加新类别标签,有效地解决了相关技术中在对影片数据分类时存在的分类偏好问题。
根据本发明的实施例,该影片数据处理装置700可以用于实现图3实施例描述的影片数据处理方法。
图9示意性示出了根据本发明的另一个实施例的影片数据处理装置的方框图。
如图9所示,上述影片数据处理装置700还可以包括存储模块718、接收模块720、匹配模块722和发送模块724。
具体地,存储模块718,用于将所述历史影片数据和/或所述新影片数据存储在分布式搜索引擎。
接收模块720,用于接收用户输入的影片关键词。
匹配模块722,基于所述影片关键词,从所述分布式搜索引擎中调用与所述影片关键词对应的接口,利用所述接口调用与所述影片关键词相匹配的影片数据。
发送模块724,用于向终端发送与所述影片关键词相匹配的影片数据。
该影片数据处理装置700可以用户输入的影片关键词检索出与所述影片关键词相匹配的影片数据,并向终端发送与所述影片关键词相匹配的影片数据,以使得用户可以在终端的应用界面上浏览到该影片数据。
本发明的实施例,该影片数据处理装置700可以用于实现图4实施例描述的影片数据处理方法。
由于本发明的示例实施例的影片数据处理装置700的各个模块可以用于实现上述2~图4描述的影片数据处理方法的示例实施例的步骤,因此对于本发明装置实施例中未披露的细节,请参照本发明上述的影片数据处理方法的实施例。
可以理解的是,第一获取模块702、局部迭代更新模块704、区块同步模块706、全局同步模块708、第二获取模块710、类别标签增加模块712、第三获取模块714、循环模块716、存储模块718、接收模块720、匹配模块722、以及发送模块724可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本发明的实施例,第一获取模块702、局部迭代更新模块704、区块同步模块706、全局同步模块708、第二获取模块710、类别标签增加模块712、第三获取模块714、循环模块716、存储模块718、接收模块720、匹配模块722、以及发送模块724中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以以对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式的适当组合来实现。或者,第一获取模块702、局部迭代更新模块704、区块同步模块706、全局同步模块708、第二获取模块710、类别标签增加模块712、第三获取模块714、循环模块716、存储模块718、接收模块720、匹配模块722、以及发送模块724中的至少一个可以至少被部分地实现为计算机程序模块,当该程序被计算机运行时,可以执行相应模块的功能。
下面参考图10,其示出了适于用来实现本发明实施例的电子设备的计算机系统1000的结构示意图。图10示出的电子设备的计算机系统1000仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图10所示,计算机系统1000包括中央处理单元(GPU)1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(RAM)1003中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有系统操作所需的各种程序和数据。GPU 1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
以下部件连接至I/O接口1005:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。
特别地,根据本发明的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。在该计算机程序被中央处理单元(GPU)1001执行时,执行本申请的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如上述实施例中所述的影片数据处理方法。
例如,所述的电子设备可以实现如图2中所示的:在步骤S210中,获取第一影片数据样本,所述第一影片数据样本包含历史影片数据。在步骤S220中,利用所述第一影片数据样本,对每个GPU区块中每个GPU的深度学习训练模型中的参数进行迭代更新,得到每个GPU区块中每个GPU的深度学习训练模型的局部更新参数。在步骤S230中,根据每个GPU区块中每个GPU的深度学习训练模型的局部更新参数,确定每个GPU区块中的深度学习训练模型的区块同步参数。在步骤S240中,根据每个GPU区块中的深度学习训练模型的区块同步参数,确定所有GPU区块中的深度学习训练模型的全局同步参数。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本发明实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (12)

1.一种影片数据处理方法,应用于影片系统,所述影片系统包括深度学习训练模型,所述深度学习训练模型部署在多台服务器中每台服务器的GPU区块,该方法包括:
采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数;
其中,所述采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数包括:
获取第一影片数据样本,所述第一影片数据样本包含历史影片数据;
利用所述第一影片数据样本,对每个GPU区块中每个GPU的深度学习训练模型中的参数进行迭代更新,得到每个GPU区块中每个GPU的深度学习训练模型的局部更新参数;
根据每个GPU区块中每个GPU的深度学习训练模型的局部更新参数,确定每个GPU区块中的深度学习训练模型的区块同步参数;
根据每个GPU区块中的深度学习训练模型的区块同步参数,确定所有GPU区块中的深度学习训练模型的全局同步参数。
2.根据权利要求1所述的方法,其特征在于,每个GPU区块中每个GPU的深度学习训练模型的局部更新参数的表达式包括:
Figure FDA0002969918190000011
其中,
Figure FDA0002969918190000012
表示第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过H次局部迭代更新后得到的局部更新参数,
Figure FDA0002969918190000013
表示第t轮训练过程中局部迭代更新之前第l个GPU区块中第k个GPU的深度学习训练模型的参数,γ表示学习率,Bloc表示在一次局部迭代中所需所述第一影片数据样本的数量,i表示所述第一影片数据样本,
Figure FDA0002969918190000014
表示第t轮训练过程中第l个GPU区块中第k个GPU在第h-1次局部迭代过程中所需第一影片数据样本的集合,fi表示第i个所述第一影片数据样本的损失函数。
3.根据权利要求1所述的方法,其特征在于,每个GPU区块中的深度学习训练模型的区块同步参数的表达式包括:
Figure FDA0002969918190000021
其中,
Figure FDA0002969918190000022
表示第t轮训练过程中第l个GPU区块中的深度学习训练模型在第一次区块同步过程中的区块同步参数,
Figure FDA0002969918190000023
表示第t轮训练过程中区块同步之前第l个GPU区块中的深度学习训练模型的参数,Kl表示第l个GPU区块中GPU的总数,
Figure FDA0002969918190000024
表示在第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过H次局部迭代更新后得到的局部更新参数。
4.根据权利要求1所述的方法,其特征在于,所有GPU区块中的深度学习训练模型的全局同步参数的表达式包括:
Figure FDA0002969918190000025
其中,
Figure FDA0002969918190000026
表示第t+1轮训练过程中所有GPU区块中的深度学习训练模型的全局同步参数,
Figure FDA0002969918190000027
表示第t轮训练过程中所有GPU区块中的深度学习训练模型的全局同步参数,K为所有GPU区块中GPU的总数,
Figure FDA0002969918190000028
表示第t轮训练过程中所有GPU区块中每个GPU区块的深度学习训练模型在第Hb次区块同步过程中的区块同步参数。
5.根据权利要求1所述的方法,其特征在于,该方法还包括:
获取第二影片数据样本,所述第二影片数据样本与所述第一影片数据样本不同,所述第二影片数据样本包含历史影片数据和新影片数据;
利用所述历史影片数据,对全局同步后的深度学习训练模型进行训练,得到所述历史影片数据的类别序列,以及利用所述新影片数据,对所述全局同步后的深度学习训练模型进行训练,得到所述新影片数据的类别序列;
根据所述历史影片数据的类别序列和所述新影片数据的类别序列,获取本次训练的损失函数;
循环以上步骤,得到预测模型,所述预测模型中包含历史类别签和新增类别标签。
6.根据权利要求5所述的方法,其特征在于,所述历史影片数据的类别序列的表达式包括:
qd=od 1≤d≤n
其中,qd表示所述历史影片数据的类别序列,d表示所述历史影片数据的类别序列中类别标签,n表示全局同步后的深度学习训练模型中类别标签的总数。
7.根据权利要求5所述的方法,其特征在于,所述新影片数据的类别序列的表达式包括:
qd=αod+β n+1≤d≤n+m
其中,qd表示所述新影片数据的类别序列,d表示所述新影片数据的类别序列中类别标签,α和β表示全局同步后的深度学习训练模型中的偏置参数,n表示全局同步后的深度学习训练模型中类别标签的总数,n+m表示全局同步后的深度学习训练模型基于新影片数据增加类别后的类别总数。
8.根据权利要求5所述的方法,其特征在于,计算所述损失函数的公式为:
Figure FDA0002969918190000031
其中,n+m表示全局同步后的深度学习训练模型基于新影片数据增加类别后的类别总数,qd表示所述历史影片数据的类别序列和/或所述新影片数据的类别序列。
9.根据权利要求1或5所述的方法,其特征在于,该方法还包括:
将所述历史影片数据和/或所述新影片数据存储在分布式搜索引擎;
接收用户输入的影片关键词;
基于所述影片关键词,从所述分布式搜索引擎中调用与所述影片关键词对应的接口,利用所述接口调用与所述影片关键词相匹配的影片数据;
向终端发送与所述影片关键词相匹配的影片数据。
10.一种影片数据处理装置,应用于影片系统,所述影片系统包括深度学习训练模型,所述深度学习训练模型部署在多台服务器中每台服务器的GPU区块,该装置包括:
第一获取模块,用于获取第一影片数据样本,所述第一影片数据样本包含历史影片数据;
局部迭代更新模块,利用所述第一影片数据样本,对每个GPU区块中每个GPU的深度学习训练模型中的参数进行迭代更新,得到每个GPU区块中每个GPU的深度学习训练模型的局部更新参数;
区块同步模块,用于根据每个GPU区块中每个GPU的深度学习训练模型的局部更新参数,确定每个GPU区块中的深度学习训练模型的区块同步参数;
全局同步模块,用于根据每个GPU区块中的深度学习训练模型的区块同步参数,确定所有GPU区块中的深度学习训练模型的全局同步参数。
11.一种电子设备,包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现根据权利要求1~9中任意一项所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现根据权利要求1~9中任意一项所述的方法。
CN202110260872.1A 2021-03-10 2021-03-10 影片数据处理方法、装置、介质及电子设备 Pending CN115080790A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110260872.1A CN115080790A (zh) 2021-03-10 2021-03-10 影片数据处理方法、装置、介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110260872.1A CN115080790A (zh) 2021-03-10 2021-03-10 影片数据处理方法、装置、介质及电子设备

Publications (1)

Publication Number Publication Date
CN115080790A true CN115080790A (zh) 2022-09-20

Family

ID=83241351

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110260872.1A Pending CN115080790A (zh) 2021-03-10 2021-03-10 影片数据处理方法、装置、介质及电子设备

Country Status (1)

Country Link
CN (1) CN115080790A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115600687A (zh) * 2022-11-08 2023-01-13 北京百度网讯科技有限公司(Cn) 模型训练方法、装置、设备以及存储介质
CN115934181A (zh) * 2022-11-07 2023-04-07 北京百度网讯科技有限公司 数据加载方法、装置、电子设备和存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115934181A (zh) * 2022-11-07 2023-04-07 北京百度网讯科技有限公司 数据加载方法、装置、电子设备和存储介质
CN115934181B (zh) * 2022-11-07 2023-10-13 北京百度网讯科技有限公司 数据加载方法、装置、电子设备和存储介质
CN115600687A (zh) * 2022-11-08 2023-01-13 北京百度网讯科技有限公司(Cn) 模型训练方法、装置、设备以及存储介质

Similar Documents

Publication Publication Date Title
EP3540652B1 (en) Method, device, chip and system for training neural network model
US11314823B2 (en) Method and apparatus for expanding query
CN109062901B (zh) 神经网络训练方法和装置及命名实体识别方法和装置
US20210150378A1 (en) Recommendation method, recommendation apparatus, recommendation device, recommendation system and storage medium
Che et al. Optimal cyclic scheduling of a hoist and multi-type parts with fixed processing times
CN115080790A (zh) 影片数据处理方法、装置、介质及电子设备
CN111353620A (zh) 构建网点件量预测模型的方法、装置、设备及存储介质
CN109086463A (zh) 一种基于区域卷积神经网络的问答社区标签推荐方法
CN113204698B (zh) 新闻主题词生成方法、装置、设备及介质
CN113033707A (zh) 视频分类方法、装置、可读介质及电子设备
CN111444335B (zh) 中心词的提取方法及装置
CN115186738B (zh) 模型训练方法、装置和存储介质
CN111782850A (zh) 一种基于手绘图的物品搜索方法和装置
CN108875014B (zh) 基于大数据与人工智能的精准项目推荐方法和机器人系统
CN115827705A (zh) 用于反事实解释的数据处理方法和装置
US9727652B2 (en) Utilizing dependency among internet search results
CN111914201A (zh) 网络页面的处理方法及装置
CN109190060B (zh) 一种基于有效人机交互的服务标注质量优化方法
CN113010666A (zh) 摘要生成方法、装置、计算机系统及可读存储介质
CN113011490B (zh) 模型训练方法、装置及电子设备
CN110807646A (zh) 数据分析方法、装置和计算机可读存储介质
CN115858821B (zh) 知识图谱处理方法、装置及知识图谱处理模型的训练方法
CN115223113B (zh) 训练样本集清洗方法、装置
CN113722578A (zh) 数据处理方法和装置
CN117221386A (zh) 信息推送方法、装置、电子设备和可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination