CN114048863A - 数据处理方法、装置、电子设备以及存储介质 - Google Patents
数据处理方法、装置、电子设备以及存储介质 Download PDFInfo
- Publication number
- CN114048863A CN114048863A CN202111351600.9A CN202111351600A CN114048863A CN 114048863 A CN114048863 A CN 114048863A CN 202111351600 A CN202111351600 A CN 202111351600A CN 114048863 A CN114048863 A CN 114048863A
- Authority
- CN
- China
- Prior art keywords
- optimized
- data
- parameter
- optimization
- gradient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
Abstract
本公开提供了数据处理方法、装置、电子设备以及存储介质,涉及计算机、数据处理技术领域,尤其涉及自然语言处理、深度学习等领域。具体实现方案为:在与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵的情况下,获取第一优化算子;从待优化数据中确定至少一个第一待优化参数,其中,与至少一个第一待优化参数相对应的梯度为非零梯度;针对每个第一待优化参数,根据第一待优化参数和与第一待优化参数相对应的梯度,利用第一优化算子,确定与第一待优化参数相对应的第一优化后数据,得到至少一个第一优化后数据;以及根据至少一个第一优化后数据,对待优化数据进行更新。
Description
技术领域
本公开涉及计算机、数据处理技术领域,尤其涉及自然语言处理、深度学习等领域,具体地,涉及一种数据处理方法、装置、电子设备以及存储介质。
背景技术
优化器或者优化算法,是使用优化算子优化参数,以及管理参数、优化变量的一种技术。参数优化包括在自然语言处理、深度学习等中通过梯度进行更新参数的技术。优化器的目的在于:通过更新参数,最小化或最大化损失函数。损失函数可以用来计算测试集中目标值Y的真实值和预测值的偏差程度。
为了使模型输出逼近或达到最优值,需要用各种优化策略和算法,来更新和计算影响模型训练和模型输出的网络参数。
发明内容
本公开提供了一种数据处理方法、装置、电子设备以及存储介质。
根据本公开的一方面,提供了一种数据处理方法,包括:在与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵的情况下,获取用于数据优化的第一优化算子;从所述待优化数据中确定至少一个第一待优化参数,其中,与所述至少一个第一待优化参数相对应的梯度为非零梯度;针对每个所述第一待优化参数,根据所述第一待优化参数和与所述第一待优化参数相对应的梯度,利用所述第一优化算子,确定与所述第一待优化参数相对应的第一优化后数据,得到至少一个第一优化后数据;以及根据所述至少一个第一优化后数据,对所述待优化数据进行更新。
根据本公开的另一方面,提供了一种数据处理装置,包括:第一获取模块,用于在与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵的情况下,获取用于数据优化的第一优化算子;第一确定模块,用于从所述待优化数据中确定至少一个第一待优化参数,其中,与所述至少一个第一待优化参数相对应的梯度为非零梯度;第二确定模块,用于针对每个所述第一待优化参数,根据所述第一待优化参数和与所述第一待优化参数相对应的梯度,利用所述第一优化算子,确定与所述第一待优化参数相对应的第一优化后数据,得到至少一个第一优化后数据;以及第一更新模块,用于根据所述至少一个第一优化后数据,对所述待优化数据进行更新。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的数据处理方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如上所述的数据处理方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的数据处理方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示意性示出了根据本公开实施例的可以应用数据处理方法及装置的示例性系统架构;
图2示意性示出了根据本公开实施例的数据处理方法的流程图;
图3示意性示出了根据本公开实施例的基于sparse momentum进行数据优化的示意图;
图4示意性示出了根据本公开实施例的基于混合优化器对待优化数据进行数据处理的流程图;
图5示意性示出了根据本公开实施例的数据处理装置的框图;以及
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
稀疏梯度参数优化的方法可以包括针对待优化数据,在设置有至少一个优化算子的优化器中,进行前向计算、反向计算梯度和优化算子优化等阶段。在前向计算阶段,可以根据待优化数据中的所有参数w和稀疏参数在待优化数据中的位置的索引信息index,利用数据索引函数gather,确定稀疏参数wsub。在反向计算梯度阶段,首先获取与稀疏参数wsub相对应的稀疏梯度grad_wsub,然后根据待优化数据的维度、稀疏参数在待优化数据中的位置的索引信息index和稀疏梯度grad_wsub,通过链式法则反向计算出与待优化数据中的所有参数相对应的零填充的全量梯度grad_w。在优化算子优化阶段,将待优化数据中的所有参数w和全量梯度grad_w输入优化算子中,计算优化后的参数。并利用优化后的参数更新原来的参数w。据此实现对待优化数据的优化。
发明人在实现本公开构思的过程中发现,上述稀疏梯度参数优化的方法需要逐元素进行参数优化,要求梯度的维度和参数的维度保持一致。在梯度是稀疏梯度或者局部梯度的情况下,需要首先构造与参数的维度一致的零填充的全量梯度,方能再进行参数优化。零填充的全量梯度需要更多的存储开销。尤其是在包括大规模稠密参数的模型中,根据上述方法优化参数的过程,会浪费大量的CPU(Central Processing Unit,中央处理器)内存或者GPU(Graphics Processing Unit,微型处理器)等存储介质的存储空间,从而会导致不能训练更大规模的模型。
发明人在实现本公开构思的过程中还发现,上述优化器中不能同时支持多种不同类型的优化算子。
图1示意性示出了根据本公开实施例的可以应用数据处理方法及装置的示例性系统架构。
需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。例如,在另一实施例中,可以应用数据处理方法及装置的示例性系统架构可以包括终端设备,但终端设备可以无需与服务器进行交互,即可实现本公开实施例提供的数据处理方法及装置。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如知识阅读类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的内容提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(″Virtual PrivateServer″,或简称″VPS″)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
需要说明的是,本公开实施例所提供的数据处理方法一般可以由终端设备101、102、或103执行。相应地,本公开实施例所提供的数据处理装置也可以设置于终端设备101、102、或103中。
或者,本公开实施例所提供的数据处理方法一般也可以由服务器105执行。相应地,本公开实施例所提供的数据处理装置一般可以设置于服务器105中。本公开实施例所提供的数据处理方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的数据处理装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
例如,在某个应用或项目模型中存在待优化数据时,终端设备101、102、103可以获取待优化数据,然后将获取的待优化数据发送给服务器105,由服务器105确定待优化数据的数据类型,并在确定与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵的情况下,获取用于数据优化的第一优化算子;从待优化数据中确定至少一个第一待优化参数,其中,与至少一个第一待优化参数相对应的梯度为非零梯度;针对每个第一待优化参数,根据第一待优化参数和与第一待优化参数相对应的梯度,利用第一优化算子,确定与第一待优化参数相对应的第一优化后数据,得到至少一个第一优化后数据;以及根据至少一个第一优化后数据,对待优化数据进行更新。或者由能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群对待优化数据进行分析,并实现对待优化数据进行更新。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的数据处理方法的流程图。
如图2所示,该方法包括操作S210~S240。
在操作S210,在与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵的情况下,获取用于数据优化的第一优化算子。
在操作S220,从待优化数据中确定至少一个第一待优化参数,其中,与至少一个第一待优化参数相对应的梯度为非零梯度。
在操作S230,针对每个第一待优化参数,根据第一待优化参数和与第一待优化参数相对应的梯度,利用第一优化算子,确定与第一待优化参数相对应的第一优化后数据,得到至少一个第一优化后数据。
在操作S240,根据至少一个第一优化后数据,对待优化数据进行更新。
根据本公开的实施例,待优化参数例如为与待优化数据相对应的参数。在与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵的情况下,稀疏梯度可以指稀疏矩阵中的非零梯度。根据梯度是否为零,可以将待优化数据划分为第一待优化参数和第二待优化参数。稀疏参数,即第一待优化参数,可以指与稀疏矩阵中的非零梯度相对应的待优化参数。稀疏梯度参数优化可以指在针对稀疏型数据进行参数优化的过程中,基于稀疏梯度进行参数优化。
根据本公开的实施例,在应用层面,待优化数据可以包括以下中的至少一个:与图像处理模型中的参数相对应的数据、与文本处理模型中的参数相对应的数据、与音频处理模型中的参数相对应的数据以及与其他自然语言处理模型中的参数相对应的数据等。在模型层面,待优化数据可以包括以下中的至少一个:与深度学习模型中的参数相对应的数据、与机器学习模型中的参数相对应的数据、与迁移学习模型中的参数相对应的数据和与强化学习模型中的参数相对应的数据等。在其他层面,待优化数据可以包括各类函数、方程等中的参数数据。例如,以y=ax+b为例,可以确定待优化数据可以包括参数a、参数b。
根据本公开的实施例,可以首先针对待优化数据进行反向计算,得到与待优化数据中的各个参数相对应的梯度。与待优化数据相对应的梯度所确定的矩阵是否为稀疏矩阵,可以根据矩阵中的非零梯度的数目确定。例如,在矩阵中的非零梯度的数目与矩阵中所有梯度的总数目的比值小于或等于预设阈值的情况下,可以确定该矩阵为稀疏矩阵,相应的待优化数据为稀疏型数据。反之,在矩阵中的非零梯度的数目与矩阵中所有梯度的总数目的比值大于该预设阈值的情况下,可以确定该矩阵为非稀疏矩阵,相应的待优化数据为非稀疏型数据。预设阈值的取值可以根据实际应用场景自定义确定。
根据本公开的实施例,与待优化数据相对应的梯度所确定的矩阵是否为稀疏矩阵,还可以根据待优化数据的数据类型来确定。例如,在某些实施例中,可以将待优化数据定义为稀疏型数据,在该种情况下,可以确定与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵。反之,可以确定与待优化数据相对应的梯度所确定的矩阵为非稀疏矩阵。
根据本公开的实施例,第一优化算子可以包括根据如下任意之一确定的稀疏优化算子:SGD(Stochastic Gradient Descent,随机梯度下降)、BGD(Batch GradientDescent,批量梯度下降)、MBGD(Min-Batch,小批量梯度下降)、Momentum(动量梯度下降)、NAG(Nesterov Accelerated Gradient,动量优化算法)、以及Adam(adaptive momentestimation)、AdaGrad、RMSprop、Adadelta等自适应学习率优化算法等。
根据本公开的实施例,第一待优化参数可以表征待优化数据中梯度为非零梯度的待优化参数。第一待优化参数的确定方法可以包括:根据第一待优化参数在待优化数据中的位置的索引信息确定,也可以通过预先定义某些参数为待优化参数的方式确定,也可以通过反向计算与待优化数据中的每个参数相对应的梯度,根据非零梯度,确定与非零梯度相对应的参数为待优化参数。
根据本公开的实施例,例如,待优化数据W可以为如公式(1)所示的2×2矩阵,W中的参数w可以包括m,n,p,q,m,n,p,q可以为任意实数。
在该待优化数据W中,例如可以首先确定第一待优化参数,即稀疏参数wsub包括p,q。与该第一待优化参数各自相对应的梯度,即与每个稀疏参数wsub相对应的稀疏梯度grad_wsub例如可以分别确定为0.5、0.6。
根据本公开的实施例,第一优化算子例如可以为公式(2)所示。根据公式(2)例如可以确定一种基于随机梯度下降法确定的稀疏优化算子sparse SGD。
其中,w′表示与参数w相对于的优化后参数,η为相关系数,例如可以取0.1,woth表示第二待优化参数。
在针对待优化数据进行优化时,可以将第一待优化参数wsub中的参数p,q和与第一待优化参数wsub相对应的梯度0.5、0.6,输入如公式(2)定义的第一优化算子中,可以确定与第一待优化参数p相对应的第一优化后数据p′为p-0.5η,与第一待优化参数q相对应的第一优化后数据q′为q-0.6η。
根据本公开的实施例,例如,待优化数据的维度是[512,5000000],类型是float32,占用的存储空间为9.54GB,稀疏梯度的维度是[512,500000],类型是float32,占用的存储空间为0.954GB,计算得到的零填充的全量梯度,维度是[512,5000000],占用的存储空间为9.54GB。
因此,基于全量梯度更新待优化数据的过程所需耗费的存储空间总共是9.54GB+0.954GB+9.54GB=20.03GB。根据本公开及相关实施例所提供的基于稀疏梯度更新待优化数据的过程所需耗费的存储空间总共是9.54GB+0.954GB=10.49GB,并可确定优化率为47.6%。
因此,相较于基于全量梯度更新待优化数据的方法,本公开及其实施例提供的基于稀疏梯度更新待优化数据的方法,节省了存储空间。
通过本公开的上述实施例,基于第一优化算子,可以根据梯度为非零梯度的第一待优化参数和与第一待优化参数相对应的梯度,对待优化数据中的第一待优化参数进行更新。在该过程中,由于可以仅基于稀疏梯度实现对待优化数据的更新,而无需基于全量梯度实现对待优化数据的更新,减少了计算与待优化数据中的所有参数相对应的全量梯度的过程,进而减少了全量梯度所占据的存储空间,避免基于全量梯度对稀疏型数据进行优化时浪费大量存储开销,有效节省了CPU内存以及GPU等存储介质的存储空间,有利于训练更大规模的模型,并可加速数据优化过程。
根据本公开的实施例,数据处理方法还可以包括:针对待优化数据中的每个第二待优化参数,利用第一优化算子,确定与第二待优化参数相对应的第二优化后数据,得到至少一个第二优化后数据。其中,与至少一个第二待优化参数相对应的梯度为零梯度。根据至少一个第一优化后数据和至少一个第二优化后数据,对待优化数据进行更新。
根据本公开的实施例,第二待优化参数可以指待优化数据中除稀疏参数之外的任意一个待优化参数,与第二待优化参数相对应的梯度可以为零梯度。第一待优化参数的确定方法可以包括:将待优化数据中不属于第一待优化参数的待优化参数确定为第二待优化参数。例如,参见公式(1),在确定第一待优化参数包括p,q的情况下,可以确定待优化数据W中的第二待优化参数woth包括m,n。对于第二待优化参数woth,可以不计算相应的梯度。
根据本公开的实施例,由于第二待优化参数woth不具有与之相对应的梯度信息,在利用第一优化算子,确定与第二待优化参数相对应的第二优化后数据时,可以不考虑梯度信息,而是通过将第二待优化参数woth中的参数m,n分别代入公式(2),可以得到与第二待优化参数m,n各自相对应的第二优化后数据m′,n′仍为m,n。
根据本公开的实施例,通过将第二待优化参数m,n的数据分别对应更新为第二优化后数据m′,n′,将第一待优化参数p,q的数据分别对应更新为第一优化后数据p′,q′,可以得到针对待优化数据W优化后的结果,如公式(3)所示。
通过本公开的上述实施例,可以不借助梯度信息,对待优化数据中的第二待优化参数进行更新,减少了计算与待优化数据中的所有参数相对应的全量梯度的过程,进而减少了全量梯度所占据的存储空间,避免基于全量梯度对稀疏型数据进行优化时浪费大量存储开销,有效节省了CPU内存以及GPU等存储介质的存储空间,有利于训练更大规模的模型,并可加速数据优化过程。
根据本公开的实施例,从待优化数据中确定至少一个第一待优化参数可以包括:确定至少一个第一待优化参数在待优化数据中的位置的第一索引信息。根据待优化数据和第一索引信息,确定至少一个第一待优化参数。
根据本公开的实施例,第一索引信息可以自定义设定,表征该索引信息所能够定位到的参数为需要根据梯度进行优化的第一待优化参数。第一索引信息也可以在确定第一待优化参数和待优化数据之后,根据第一待优化参数在待优化数据中的位置信息确定。在确定第一索引信息之后,可以根据第一索引信息,从待优化数据中定位到第一待优化参数。
根据本公开的实施例,例如可以确定第一索引信息index包括W21,W22。可以根据W21,W22和公式(1),确定第一待优化参数包括p,q。
通过本公开的上述实施例,可以基于额外的索引信息,确定待优化数据中需要反向计算梯度的第一待优化数据,实现只对该第一待优化数据进行反向计算梯度,在大规模参数的模型中,可以大幅减少梯度的存储空间,节省的存储空间可以训练更大规模参数的模型。
根据本公开的实施例,上述第一优化算子除了可以为上述sparse SGD之外,例如还可以包括基于动量梯度下降法确定的稀疏优化算子sparse momentum、基于自适应学习率优化算法确定的稀疏优化算子sparse Adam等其中之一,且不限于此。在第一优化算子为sparse SGD的情况下,输入sparse SGD的数据可以仅包括参数w、索引信息index和梯度grad_wsub。
在第一优化算子为sparse momentum的情况下,输入sparse momentum的数据可以包括参数w、索引信息index、梯度grad_wsub和一个velocity_wsub。在第一优化算子为sparseAdam的情况下,输入sparse Adam的数据可以包括参数w、索引信息index、梯度grad_wsub和两个velocity_wsub。
根据本公开的实施例,在确定存在与第一优化算子相对应的优化器变量的情况下,根据第一待优化参数和与第一待优化参数相对应的梯度,利用第一优化算子,确定与第一待优化参数相对应的第一优化后数据可以包括:根据与第一待优化参数相对应的第一目标优化器变量和与第一待优化参数相对应的梯度,利用第一优化算子,确定与第一目标优化器变量相对应的第一优化后优化器变量。根据第一待优化参数和与第一待优化参数相对应的第一优化后优化器变量,利用第一优化算子,确定与第一待优化参数相对应的第一优化后数据。
根据本公开的实施例,第一优化算子例如为sparse momentum,可以确定存在与第一优化算子相对应的优化器变量,例如可以表示为velocity。该优化器变量的维度与待优化数据的维度相同。对应于待优化数据W,优化器变量velocity例如可以为如公式(4)所示的2×2矩阵。velocity中的参数可以包括e,f,g,h,e,f,g,h可以为任意实数。
sparse momentum例如可以为公式(5)~(6)所示。
w′=w-η×velocity′ (6)
其中,velocity_wsub可以表示与第一待优化参数wsub相对应的第一目标优化器变量,velocity-woth可以表示与第二待优化参数woth相对应的第二目标优化器变量。
在利用sparse momentum计算与第一待优化参数wsub中的参数p,q相对应的第一优化后数据时,可以首先将与第一待优化参数wsub中的参数p,q相对应的第一目标优化器变量velocity_wsub中的g,h和与第一待优化参数wsub相对应的梯度0.5、0.6,输入公式(5)中,可以确定与第一目标优化器变量g相对应的第一优化后优化器变量g′为μg+0.5,与第一目标优化器变量h相对应的第一优化后优化器变量h′为μh+0.5。然后,可以将第一待优化参数wsub中的参数p,q和与第一待优化参数相对应的第一优化后优化器变量velocity′中对应的g′,h′,输入公式(6),可以确定与第一待优化参数p相对应的第一优化后数据p′为p-ηg′,与第一待优化参数q相对应的第一优化后数据q′为q-ηh′。
根据本公开的实施例,在确定第一优化算子包括优化器变量的情况下,利用第一优化算子,确定与第二待优化参数相对应的第二优化后数据可以包括:根据第二待优化参数和与第二待优化参数相对应的第二目标优化器变量,利用第一优化算子,确定与第二待优化参数相对应的第二优化后数据。
根据本公开的实施例,参见公式(4)~(6),在利用sparse momentum计算与第二待优化参数woth中的参数m,n相对应的第二优化后数据时,可以将第二待优化参数woth中的参数m,n和与第二待优化参数相对应的第二目标优化器变量e,f,输入公式(5)和(6),可以确定与第二待优化参数m相对应的第二优化后数据m′为m-ημe,与第二待优化参数n相对应的第二优化后数据n′为n-ημf。
根据本公开的实施例,在第一优化算子为sparse Adam的情况下,可以根据第二待优化参数和与第二待优化参数相对应的第二目标优化器变量,利用sparse Adam所定义的算法,确定与第二待优化参数相对应的第二优化后数据。
需要说明的是,在第一优化算子可以其他可选的优化算子的情况下,可以基于该其他可选的优化算子所定义的算法,确定第一优化后数据和第二优化后数据,实现对待优化数据的更新。
通过本公开的上述实施例,可以根据第二待优化参数和第二目标优化器变量,计算与第二待优化参数相对应的第二优化后数据。该过程使得针对稀疏型数据进行优化的过程减少了计算与待优化数据中的所有参数相对应的全量梯度的步骤,进而减少了全量梯度所占据的存储空间,避免基于全量梯度对稀疏型数据进行优化时浪费大量存储开销,有效节省了CPU内存以及GPU等存储介质的存储空间,有利于训练更大规模的模型,并可加速数据优化过程。
根据本公开的实施例,在确定第一优化算子不包括优化器变量的情况下,利用第一优化算子,确定与第二待优化参数相对应的第二优化后数据可以包括:将第二待优化参数确定为与第二待优化参数相对应的第二优化后数据。
根据本公开的实施例,如公式(2)确定的稀疏优化算子sparse SGD,即为不存在优化器变量的优化算子。并且,基于前述实施例可以确定,利用sparse SGD确定的与第二待优化参数m,n相对应的第二优化后数据m′,n′仍为第二待优化参数m,n本身。
通过本公开的上述实施例,可以将第二待优化参数确定为与第二待优化参数相对应的第二优化后数据。该过程使得针对稀疏型数据进行优化的过程减少了计算与待优化数据中的所有参数相对应的全量梯度的步骤,进而减少了全量梯度所占据的存储空间,解决了基于全量梯度对稀疏型数据进行优化时浪费大量存储开销的问题,有效节省了CPU内存以及GPU等存储介质的存储空间,有利于训练更大规模的模型,并可加速数据优化过程。
图3示意性示出了根据本公开实施例的基于sparse momentum进行数据优化的示意图。
如图3所示,图中实线表示输入,虚线表示输出。在针对稀疏型数据进行数据优化时,可以将待优化数据W中的所有参数w 310,第一待优化参数在待优化数据中的位置的索引信息index 320,与第一待优化参数相对应的梯度grad_wsub 330,以及优化器变量velocity 340,输入sparse momentum 350中。sparse momentum 350可以根据梯度grad_wsub 330、索引信息index 320、优化器变量velocity 340等,结合公式(5),得到优化后的优化器变量velocity′。然后,sparse momentum 350可以基于参数w 310、索引信息index 320和更新后的优化器变量velocity′进行计算,并可得到与第一待优化参数wsub 370相对应的优化后参数w′sub。可以根据参数w 310和索引信息index 320,利用gather 360确定第一待优化参数wsub 370。
根据本公开的实施例,如图3所示,在基于sparse momentum 350计算得到优化后参数w′sub之后,可以利用w′sub对待优化数据中的wsub 370的数据进行更新,可以得到优化后的待优化数据。
通过本公开的上述实施例,可以基于额外的索引信息,构建一种能够实现基于稀疏梯度更新待优化数据的稀疏优化算子。基于该稀疏优化算子进行数据的优化的方法,在整个优化过程中都不需要额外产生存储开销,在大规模参数的模型中,可以减少梯度的存储空间,便于可以训练更大规模参数的模型。
根据本公开的实施例,在与待优化数据相对应的梯度所确定的矩阵为非稀疏矩阵的情况下,上述数据处理方法还可以包括:获取用于数据优化的第二优化算子。针对待优化数据中的每个第三待优化参数,根据第三待优化参数和与第三待优化参数相对应的梯度,利用第二优化算子,确定与第三待优化参数相对应的第三优化后数据。根据第三优化后数据,对待优化数据进行更新。
根据本公开的实施例,第三优化算子可以包括如下任意之一:SGD(StochasticGradient Descent,随机梯度下降)、BGD(Batch Gradient Descent,批量梯度下降)、MBGD(Min-Batch,小批量梯度下降)、Momentum(动量梯度下降)、NAG(Nesterov AcceleratedGradient,动量优化算法)、以及Adam(adaptive moment estimation)、AdaGrad、RMSprop、Adadelta等自适应学习率优化算法等。
根据本公开的实施例,第三待优化参数可以包括待优化数据中的所有参数。根据第三待优化参数和与第三待优化参数相对应的梯度,利用第二优化算子,确定与第三待优化参数相对应的第三优化后数据的实现方法,与根据第一待优化参数和与第一待优化参数相对应的梯度,利用第一优化算子,确定与第一待优化参数相对应的第一优化后数据的实现方法相同,在此不再赘述。
根据本公开的实施例,可以通过将上述第一优化算子和第二优化算子设置于同一个优化器中,构建包括多个不同类型的优化算子的混合优化器。在一个模型中既存在稀疏型待优化数据又存在非稀疏型待优化数据的情况下,可以基于该混合优化器,选择第一优化算子对稀疏型待优化数据进行数据优化,并选择第二优化算子对非稀疏型待优化数据进行数据优化,从而实现依次完成针对所有待优化数据的优化。
图4示意性示出了根据本公开实施例的基于混合优化器对待优化数据进行数据处理的流程图。
如图4所示,该方法包括操作S410~S440。
在操作S410,遍历模型中的每个待优化数据,每个待优化数据包括至少一个待优化参数。
在操作S420,与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵?若是,则执行操作S430;若否,则执行操作S440。
在操作S430,利用第一优化算子对待优化数据进行优化。
在操作S440,利用第二优化算子对待优化数据进行优化。
需要说明的是,在针对待优化数据中的参数反向计算梯度时,可以标记相应的梯度为稀疏梯度或非稀疏梯度,进而在确定某梯度为稀疏梯度的情况下,停止继续反向计算零填充的全量梯度的过程,并获取第一优化算子,利用第一优化算子对待优化数据进行优化。利用第一优化算子或第二优化算子对待优化数据进行优化的过程在前述实施例中已有描述,在此不再赘述。
通过本公开的上述实施例,可以实现一种混合优化器,在该混合优化器中可以即支持适用于稀疏型数据的优化算子又支持适用于非稀疏型数据的优化算子,可以实现利用一个优化器完成对复杂模型中待优化参数的数据优化,并可有效提高优化速率。此外,根据该混合优化器进行基于稀疏梯度的参数优化的过程,还可以支持动态图模式的参数优化。
根据本公开的实施例,第一优化算子可以包括以下中的至少一个:基于随机梯度下降法确定的优化算子、基于批量梯度下降法确定的优化算子、基于小批量梯度下降法确定的优化算子、基于动量梯度下降法确定的优化算子、基于动量优化算法确定的优化算子以及基于各自类型的自适应学习率优化算法确定的优化算子等。
通过本公开的上述实施例,由于第一优化算子可以是根据各种类型的优化算子确定的优化算子,可以提高第一优化算子的丰富度,使得数据处理方法可以适用于更多样化的场景,并可有效提高优化速率。
根据本公开的实施例,第二优化算子可以包括以下中的至少一个:基于随机梯度下降法确定的优化算子、基于批量梯度下降法确定的优化算子、基于小批量梯度下降法确定的优化算子、基于动量梯度下降法确定的优化算子、基于动量优化算法确定的优化算子以及基于各自类型的自适应学习率优化算法确定的优化算子等。
通过本公开的上述实施例,由于第二优化算子可以是根据各种类型的优化算子确定的优化算子,可以提高第二优化算子的丰富度,使得数据处理方法可以适用于更多样化的场景,并可有效提高优化速率。
通过本公开的上述实施例,通过结合多种类型的第一优化算子和多种类型的第二优化算子,可以进一步增加优化器可支持的优化算子的种类,提高优化效率。
根据本公开的实施例,待优化数据可以包括以下中的至少一个:与图像处理模型中的参数相对应的数据、与文本处理模型中的参数相对应的数据和与音频处理模型中的参数相对应的数据等,且可不仅限于此。
根据本公开的实施例,上述待优化数据仅是示例性实施例,但不限于此,还可以包括本领域已知的其他各类程式、方程、模型即其他场景中需要优化的参数构成的数据。
通过本公开的上述实施例,可以将本方案应用于各类实际场景中,实现针对各类场景中的待优化数据的优化,实现了一种通用且高效的数据优化方法。
图5示意性示出了根据本公开实施例的数据处理装置的框图。
如图5所示,数据处理装置500,包括第一获取模块510、第一确定模块520、第二确定模块530和第一更新模块540。
第一获取模块510,用于在与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵的情况下,获取用于数据优化的第一优化算子。
第一确定模块520,用于从待优化数据中确定至少一个第一待优化参数。其中,与至少一个第一待优化参数相对应的梯度为非零梯度。
第二确定模块530,用于针对每个第一待优化参数,根据第一待优化参数和与第一待优化参数相对应的梯度,利用第一优化算子,确定与第一待优化参数相对应的第一优化后数据,得到至少一个第一优化后数据。
第一更新模块540,用于根据至少一个第一优化后数据,对待优化数据进行更新。
根据本公开的实施例,数据处理装置还包括第三确定模块和第二更新模块。
第三确定模块,用于针对待优化数据中的每个第二待优化参数,利用第一优化算子,确定与第二待优化参数相对应的第二优化后数据,得到至少一个第二优化后数据。其中,与至少一个第二待优化参数相对应的梯度为零梯度。
第二更新模块,用于根据至少一个第一优化后数据和至少一个第二优化后数据,对待优化数据进行更新。
根据本公开的实施例,第一确定模块包括第一确定单元和第二确定单元。
第一确定单元,用于确定至少一个第一待优化参数在待优化数据中的位置的第一索引信息。
第二确定单元,用于根据待优化数据和第一索引信息,确定至少一个第一待优化参数。
根据本公开的实施例,第三确定模块包括第三确定单元。
第三确定单元,用于在第一优化算子包括优化器变量的情况下,根据第二待优化参数和与第二待优化参数相对应的第二目标优化器变量,利用第一优化算子,确定与第二待优化参数相对应的第二优化后数据。
根据本公开的实施例,第三确定模块包括第四确定单元。
第四确定单元,用于在确定第一优化算子不包括优化器变量的情况下,将第二待优化参数确定为与第二待优化参数相对应的第二优化后数据。
根据本公开的实施例,数据处理装置还包括第二获取模块、第四确定模块和第三更新模块。
第二获取模块,用于在与待优化数据相对应的梯度所确定的矩阵为非稀疏矩阵的情况下,获取用于数据优化的第二优化算子。
第四确定模块,用于针对待优化数据中的每个第三待优化参数,根据第三待优化参数和与第三待优化参数相对应的梯度,利用第二优化算子,确定与第三待优化参数相对应的第三优化后数据。
第三更新模块,用于根据第三优化后数据,对待优化数据进行更新。
根据本公开的实施例,第一优化算子包括以下中的至少一个:基于随机梯度下降法确定的优化算子、基于批量梯度下降法确定的优化算子、基于小批量梯度下降法确定的优化算子和基于动量梯度下降法确定的优化算子。
根据本公开的实施例,第二优化算子包括以下中的至少一个:基于随机梯度下降法确定的优化算子、基于批量梯度下降法确定的优化算子、基于小批量梯度下降法确定的优化算子和基于动量梯度下降法确定的优化算子。
根据本公开的实施例,待优化数据包括以下中的至少一个:与图像处理模型中的参数相对应的数据、与文本处理模型中的参数相对应的数据和与音频处理模型中的参数相对应的数据。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如上所述的数据处理方法。
根据本公开的实施例,一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如上所述的数据处理方法。
根据本公开的实施例,一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如上所述的数据处理方法。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如数据处理方法。例如,在一些实施例中,数据处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的数据处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行数据处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (18)
1.一种数据处理方法,包括:
在与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵的情况下,获取用于数据优化的第一优化算子;
从所述待优化数据中确定至少一个第一待优化参数,其中,与所述至少一个第一待优化参数相对应的梯度为非零梯度;
针对每个所述第一待优化参数,根据所述第一待优化参数和与所述第一待优化参数相对应的梯度,利用所述第一优化算子,确定与所述第一待优化参数相对应的第一优化后数据,得到至少一个第一优化后数据;以及
根据所述至少一个第一优化后数据,对所述待优化数据进行更新。
2.根据权利要求1所述的方法,还包括:
针对所述待优化数据中的每个第二待优化参数,利用所述第一优化算子,确定与所述第二待优化参数相对应的第二优化后数据,得到至少一个第二优化后数据,其中,与所述至少一个第二待优化参数相对应的梯度为零梯度;以及
根据所述至少一个第一优化后数据和所述至少一个第二优化后数据,对所述待优化数据进行更新。
3.根据权利要求1所述的方法,其中,所述从所述待优化数据中确定至少一个第一待优化参数包括:
确定所述至少一个第一待优化参数在所述待优化数据中的位置的第一索引信息;以及
根据所述待优化数据和所述第一索引信息,确定所述至少一个第一待优化参数。
4.根据权利要求2所述的方法,其中,所述利用所述第一优化算子,确定与所述第二待优化参数相对应的第二优化后数据包括:
在确定所述第一优化算子包括优化器变量的情况下,根据所述第二待优化参数和与所述第二待优化参数相对应的第二目标优化器变量,利用所述第一优化算子,确定与所述第二待优化参数相对应的第二优化后数据。
5.根据权利要求2所述的方法,其中,所述利用所述第一优化算子,确定与所述第二待优化参数相对应的第二优化后数据包括:
在确定所述第一优化算子不包括优化器变量的情况下,将所述第二待优化参数确定为与所述第二待优化参数相对应的第二优化后数据。
6.根据权利要求1所述的方法,还包括:
在与待优化数据相对应的梯度所确定的矩阵为非稀疏矩阵的情况下,获取用于数据优化的第二优化算子;
针对所述待优化数据中的每个第三待优化参数,根据所述第三待优化参数和与所述第三待优化参数相对应的梯度,利用所述第二优化算子,确定与所述第三待优化参数相对应的第三优化后数据;以及
根据所述第三优化后数据,对所述待优化数据进行更新。
7.根据权利要求1至6中任一所述的方法,其中,所述第一优化算子包括以下中的至少一个:基于随机梯度下降法确定的优化算子、基于批量梯度下降法确定的优化算子、基于小批量梯度下降法确定的优化算子和基于动量梯度下降法确定的优化算子。
8.根据权利要求6所述的方法,其中,所述第二优化算子包括以下中的至少一个:基于随机梯度下降法确定的优化算子、基于批量梯度下降法确定的优化算子、基于小批量梯度下降法确定的优化算子和基于动量梯度下降法确定的优化算子。
9.根据权利要求1至8中任一所述的方法,其中,所述待优化数据包括以下中的至少一个:
与图像处理模型中的参数相对应的数据、与文本处理模型中的参数相对应的数据和与音频处理模型中的参数相对应的数据。
10.一种数据处理装置,包括:
第一获取模块,用于在与待优化数据相对应的梯度所确定的矩阵为稀疏矩阵的情况下,获取用于数据优化的第一优化算子;
第一确定模块,用于从所述待优化数据中确定至少一个第一待优化参数,其中,与所述至少一个第一待优化参数相对应的梯度为非零梯度;
第二确定模块,用于针对每个所述第一待优化参数,根据所述第一待优化参数和与所述第一待优化参数相对应的梯度,利用所述第一优化算子,确定与所述第一待优化参数相对应的第一优化后数据,得到至少一个第一优化后数据;以及
第一更新模块,用于根据所述至少一个第一优化后数据,对所述待优化数据进行更新。
11.根据权利要求10所述的装置,还包括:
第三确定模块,用于针对所述待优化数据中的每个第二待优化参数,利用所述第一优化算子,确定与所述第二待优化参数相对应的第二优化后数据,得到至少一个第二优化后数据,其中,与所述至少一个第二待优化参数相对应的梯度为零梯度;以及
第二更新模块,用于根据所述至少一个第一优化后数据和所述至少一个第二优化后数据,对所述待优化数据进行更新。
12.根据权利要求10所述的装置,其中,所述第一确定模块包括:
第一确定单元,用于确定所述至少一个第一待优化参数在所述待优化数据中的位置的第一索引信息;以及
第二确定单元,用于根据所述待优化数据和所述第一索引信息,确定所述至少一个第一待优化参数。
13.根据权利要求11所述的装置,其中,所述第三确定模块包括:
第三确定单元,用于在确定所述第一优化算子包括优化器变量的情况下,根据所述第二待优化参数和与所述第二待优化参数相对应的第二目标优化器变量,利用所述第一优化算子,确定与所述第二待优化参数相对应的第二优化后数据。
14.根据权利要求11所述的装置,其中,所述第三确定模块包括:
第四确定单元,用于在确定所述第一优化算子不包括优化器变量的情况下,将所述第二待优化参数确定为与所述第二待优化参数相对应的第二优化后数据。
15.根据权利要求10所述的装置,还包括:
第二获取模块,用于在与待优化数据相对应的梯度所确定的矩阵为非稀疏矩阵的情况下,获取用于数据优化的第二优化算子;
第四确定模块,用于针对所述待优化数据中的每个第三待优化参数,根据所述第三待优化参数和与所述第三待优化参数相对应的梯度,利用所述第二优化算子,确定与所述第三待优化参数相对应的第三优化后数据;以及
第三更新模块,用于根据所述第三优化后数据,对所述待优化数据进行更新。
16.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的方法。
17.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-9中任一项所述的方法。
18.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111351600.9A CN114048863A (zh) | 2021-11-15 | 2021-11-15 | 数据处理方法、装置、电子设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111351600.9A CN114048863A (zh) | 2021-11-15 | 2021-11-15 | 数据处理方法、装置、电子设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114048863A true CN114048863A (zh) | 2022-02-15 |
Family
ID=80209548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111351600.9A Pending CN114048863A (zh) | 2021-11-15 | 2021-11-15 | 数据处理方法、装置、电子设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114048863A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114724009A (zh) * | 2022-04-26 | 2022-07-08 | 北京拙河科技有限公司 | 一种基于改进的深度学习网络的图像识别方法及装置 |
-
2021
- 2021-11-15 CN CN202111351600.9A patent/CN114048863A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114724009A (zh) * | 2022-04-26 | 2022-07-08 | 北京拙河科技有限公司 | 一种基于改进的深度学习网络的图像识别方法及装置 |
CN114724009B (zh) * | 2022-04-26 | 2022-09-27 | 北京拙河科技有限公司 | 一种基于改进的深度学习网络的图像识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112561078B (zh) | 分布式的模型训练方法及相关装置 | |
CN108733508B (zh) | 用于控制数据备份的方法和系统 | |
KR20210105315A (ko) | 데이터 주석 방법, 장치, 기기, 저장매체 및 컴퓨터 프로그램 | |
CN114091128A (zh) | 一种排样方案的确定方法、装置及电子设备 | |
CN111259090B (zh) | 关系数据的图生成方法、装置、电子设备和存储介质 | |
CN113627536A (zh) | 模型训练、视频分类方法,装置,设备以及存储介质 | |
CN114693934A (zh) | 语义分割模型的训练方法、视频语义分割方法及装置 | |
CN114048863A (zh) | 数据处理方法、装置、电子设备以及存储介质 | |
CN113904943A (zh) | 账号检测方法、装置、电子设备和存储介质 | |
CN114239853A (zh) | 模型训练方法、装置、设备、存储介质以及程序产品 | |
CN112433757A (zh) | 一种确定接口调用关系的方法和装置 | |
CN115186738B (zh) | 模型训练方法、装置和存储介质 | |
CN114091686B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN115759209A (zh) | 神经网络模型的量化方法、装置、电子设备及介质 | |
CN114490969A (zh) | 基于表格的问答方法、装置以及电子设备 | |
CN113239054A (zh) | 信息生成方法、相关装置及计算机程序产品 | |
CN113344213A (zh) | 知识蒸馏方法、装置、电子设备及计算机可读存储介质 | |
CN113010571A (zh) | 数据检测方法、装置、电子设备、存储介质和程序产品 | |
CN113052325A (zh) | 在线模型的优化方法、装置、设备、存储介质及程序产品 | |
CN112560987A (zh) | 图像样本处理方法、装置、设备、存储介质和程序产品 | |
CN113963433B (zh) | 运动搜索方法、装置、电子设备及存储介质 | |
CN114331379B (zh) | 用于输出待办任务的方法、模型训练方法和装置 | |
CN116894229A (zh) | 一种同类多数据源融合方法、装置、设备及存储介质 | |
CN115759233A (zh) | 模型的训练方法、图数据处理方法、装置及电子设备 | |
CN117591145A (zh) | 接口文档的更新方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |