CN116341642B - 一种数据处理的方法、装置、存储介质及电子设备 - Google Patents

一种数据处理的方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN116341642B
CN116341642B CN202310216915.5A CN202310216915A CN116341642B CN 116341642 B CN116341642 B CN 116341642B CN 202310216915 A CN202310216915 A CN 202310216915A CN 116341642 B CN116341642 B CN 116341642B
Authority
CN
China
Prior art keywords
data processing
target
operators
operator
tensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310216915.5A
Other languages
English (en)
Other versions
CN116341642A (zh
Inventor
王宏升
陈�光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202310216915.5A priority Critical patent/CN116341642B/zh
Publication of CN116341642A publication Critical patent/CN116341642A/zh
Application granted granted Critical
Publication of CN116341642B publication Critical patent/CN116341642B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9027Trees
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本说明书公开了一种数据处理的方法、装置、存储介质及电子设备。首先,获取数据处理模型对应的算子运算关系图,算子运算关系图用于表示所述数据处理模型所包含的各算子之间的运算关系。其次,根据算子运算关系图,确定各算子。而后,从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式。最后,当接收到待处理数据时,将待处理数据输入到数据处理模型中,以按照目标方式,通过数据处理模型对待处理数据进行数据处理。本方法可以提高对神经网络模型的训练效率。

Description

一种数据处理的方法、装置、存储介质及电子设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种数据处理的方法、装置、存储介质及电子设备。
背景技术
目前,通过大量的数据对复杂的神经网络模型进行训练需要大量的时间。而为了减少神经网络模型训练的时间,通常采用分布式训练方法。分布式训练方法包括:数据并行、模型并行等。数据并行是指将数据拆分成多份,分别由多个相同的神经网络模型进行运算,再将最后的结果进行整合。模型并行是指将神经网络模型拆分成多个子模型,将相同的数据输入到多个子模型进行运算,再将最后的结果进行整合。但是,由于数据并行需要部署多个相同的神经网络模型,导致无法应用于大型神经网络模型。而模型并行需要各子模型之间传输数据,从而导致运算资源的浪费。因此,现有的分布式训练方法对神经网络模型的训练效率较低。
因此,如何提高对神经网络模型的训练效率,则是一个亟待解决的问题。
发明内容
本说明书提供一种数据处理的方法、装置、存储介质及电子设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种数据处理的方法,包括:
获取数据处理模型对应的算子运算关系图,所述算子运算关系图用于表示所述数据处理模型所包含的各算子之间的运算关系;
根据所述算子运算关系图,确定各算子;
从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式;
当接收到待处理数据时,将所述待处理数据输入到所述数据处理模型中,以按照所述目标方式,通过所述数据处理模型对所述待处理数据进行数据处理。
可选地,所述数据处理方式包括:按列切分方式,所述按列切分方式是通过算子将输入张量沿着纵向对称轴进行切分,得到切分后的张量,对所述切分后的张量进行运算,得到运算结果,并对所述运算结果进行拼接,得到输出张量的数据处理方式。
可选地,所述数据处理方式包括:按行切分方式,所述按行切分方式是通过算子将输入张量沿着横向对称轴进行切分,得到切分后的张量,对所述切分后的张量进行运算,得到运算结果,并对所述运算结果进行拼接,得到输出张量的数据处理方式。
可选地,所述数据处理方式包括:复制方式,所述复制方式是通过算子将输入张量进行复制,得到与输入张量相同的输出张量的数据处理方式。
可选地,所述数据处理方式包括:局部分解方式,所述局部分解方式是通过算子将输入张量进行分解,得到形状相同且元素不同的分解后的张量,对所述分解后的张量进行运算,得到运算结果,并对所述运算结果进行相同位置的元素相加,得到输出张量的数据处理方式。
可选地,所述运算关系包括:单向运算关系,所述单向运算关系用于表示至少三个算子组成的一条单向的运算关系;
根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,具体包括:
若各目标算子之间的运算关系为单向运算关系,则根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。
可选地,所述运算关系包括:多向运算关系,所述多向运算关系用于表示至少三个算子组成的至少两条单向的运算关系;
根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,具体包括:
若各目标算子之间的运算关系为多向运算关系,则针对每条单向的运算关系,根据在该条单向的运算关系中的各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出在该条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式;
根据各条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,确定目标方式。
可选地,所述运算关系包括:树结构运算关系,所述树结构运算关系用于表示至少三个算子组成的树结构的运算关系,所述树结构运算关系包括:根节点以及叶子节点;
根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,具体包括:
若各目标算子之间的运算关系为树结构运算关系,则根据各叶子节点按照不同的数据处理方式对所述根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述叶子节点在对所述根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。
可选地,所述树结构运算关系还包括:第一根节点以及第二根节点,且所述第一根节点与所述第二根节点存在公共叶子节点;
根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,具体包括:
根据所述第一根节点对应的叶子节点按照不同的数据处理方式对所述第一根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述第一根节点对应的叶子节点在对所述第一根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述第一根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式;
根据所述第二根节点对应的叶子节点按照不同的数据处理方式对所述第二根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述第二根节点对应的叶子节点在对所述第二根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述第二根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式;
根据对所述第一根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,以及对所述第二根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,确定目标方式。
本说明书提供了一种数据处理的装置,包括:
获取模块,用于获取数据处理模型对应的算子运算关系图,所述算子运算关系图用于表示所述数据处理模型所包含的各算子之间的运算关系;
确定模块,用于根据所述算子运算关系图,确定各算子;
筛选模块,用于从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式;
处理模块,用于当接收到待处理数据时,将所述待处理数据输入到所述数据处理模型中,以按照所述目标方式,通过所述数据处理模型对所述待处理数据进行数据处理。
可选地,所述运算关系包括:单向运算关系,所述单向运算关系用于表示至少三个算子组成的一条单向的运算关系;
所述筛选模块,具体用于若各目标算子之间的运算关系为单向运算关系,则根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。
可选地,所述运算关系包括:多向运算关系,所述多向运算关系用于表示至少三个算子组成的至少两条单向的运算关系;
所述筛选模块,具体用于若各目标算子之间的运算关系为多向运算关系,则针对每条单向的运算关系,根据在该条单向的运算关系中的各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出在该条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,根据各条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,确定目标方式。
可选地,所述运算关系包括:树结构运算关系,所述树结构运算关系用于表示至少三个算子组成的树结构的运算关系,所述树结构运算关系包括:根节点以及叶子节点;
所述筛选模块,具体用于若各目标算子之间的运算关系为树结构运算关系,则根据各叶子节点按照不同的数据处理方式对所述根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述叶子节点在对所述根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述数据处理的方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述数据处理的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的数据处理的方法中,获取数据处理模型对应的算子运算关系图,算子运算关系图用于表示所述数据处理模型所包含的各算子之间的运算关系。其次,根据算子运算关系图,确定各算子。而后,从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式。最后,当接收到待处理数据时,将待处理数据输入到数据处理模型中,以按照目标方式,通过数据处理模型对待处理数据进行数据处理。
从上述的数据处理的方法中可以看出,本方法可以根据算子运算关系图,确定各算子。其次,从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式。最后,当接收到待处理数据时,将待处理数据输入到数据处理模型中,以按照目标方式,通过数据处理模型对待处理数据进行数据处理。本方法可以提高对神经网络模型的训练效率。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书实施例提供的数据处理的方法的流程示意图;
图2为本说明书实施例提供的一种按列切分方式的示意图;
图3为本说明书实施例提供的一种按行切分方式的示意图;
图4为本说明书实施例提供的一种局部分解方式的示意图;
图5为本说明书实施例提供的一种单向运算关系的示意图;
图6为本说明书实施例提供的一种多向运算关系的示意图;
图7为本说明书实施例提供的一种树结构运算关系的示意图;
图8为本说明书实施例提供的另一种树结构运算关系的示意图;
图9为本说明书实施例提供的数据处理的装置的结构示意图;
图10为本说明书实施例提供的电子设备的结构示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书实施例提供的数据处理的方法的流程示意图,具体包括以下步骤:
S100:获取数据处理模型对应的算子运算关系图,所述算子运算关系图用于表示所述数据处理模型所包含的各算子之间的运算关系。
在本说明书实施例中,本说明书提供的数据处理的方法的执行主体可以是服务器、台式电脑等电子设备,为了便于描述,下面仅以服务器为执行主体,对本说明书提供的数据处理的方法进行说明。
在本说明书实施例中,服务器可以获取数据处理模型对应的算子运算关系图,这里提到的算子运算关系图用于表示数据处理模型所包含的各算子之间的运算关系。
S102:根据所述算子运算关系图,确定各算子。
S104:从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式。
在本说明书实施例中,服务器可以根据算子运算关系图,确定各算子。
然后,服务器可以从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式。
这里提到的数据处理方式包括:按列切分方式、按行切分方式、复制方式以及局部分解方式。
按列切分方式是通过算子将输入张量沿着纵向对称轴进行切分,得到切分后的张量,对切分后的张量进行运算,得到运算结果,并对运算结果进行拼接,得到输出张量的数据处理方式。具体如图2所示。
图2为本说明书实施例提供的一种按列切分方式的示意图。
在图2中,服务器可以对输入张量A进行沿着纵向对称轴进行切分,得到切分后的张量B以及切分后的张量C。然后,将切分后的张量B以及切分后的张量C分别输入到算子P中,得到运算结果b以及运算结果c。接着,将运算结果b以及运算结果c进行拼接,得到输出张量a。输出张量a为输入张量A输入到算子P中所得到张量结果。其中,输出张量a的数据属性为按列切分属性。
按行切分方式是通过算子将输入张量沿着横向对称轴进行切分,得到切分后的张量,对切分后的张量进行运算,得到运算结果,并对运算结果进行拼接,得到输出张量的数据处理方式。具体如图3所示。
图3为本说明书实施例提供的一种按行切分方式的示意图。
在图3中,服务器可以对输入张量A进行沿着横向对称轴进行切分,得到切分后的张量B以及切分后的张量C。然后,将切分后的张量B以及切分后的张量C分别输入到算子P中,得到运算结果b以及运算结果c。接着,将运算结果b以及运算结果c进行拼接,得到输出张量a。输出张量a为输入张量A输入到算子P中所得到张量结果。其中,输出张量a的数据属性为按行切分属性。
复制方式是通过算子将输入张量进行复制,得到与输入张量相同的输出张量的数据处理方式。其中,输出张量的数据属性为复制属性。
局部分解方式是通过算子将输入张量进行分解,得到形状相同且元素不同的分解后的张量,对分解后的张量进行运算,得到运算结果,并对运算结果进行相同位置的元素相加,得到输出张量的数据处理方式。具体如图4所示。
图4为本说明书实施例提供的一种局部分解方式的示意图。
在图4中,服务器可以对输入张量A进行局部分解,得到形状相同且元素不同的分解后的张量B以及分解后的张量C。然后,将分解后的张量B以及分解后的张量C分别输入到算子P中,输出运算结果b以及运算结果c。接着,将运算结果b以及运算结果c进行相同位置的元素相加,得到输出张量a。输出张量a为输入张量A输入到算子P中所得到张量结果。其中,输出张量a的数据属性为局部分解属性。
在本说明书实施例中,输入到每个算子中的输入张量可以具有多种数据属性。数据属性包括:按列切分属性、按行切分属性、复制属性以及局部分解属性。数据属性是根据算子在对输入张量进行数据处理时所采用的数据处理方式得到的。例如,算子在对输入张量进行数据处理时所采用的数据处理方式为按列切分方式,输入张量对应的数据属性为按列切分属性。再例如,算子在对输入张量进行数据处理时所采用的数据处理方式为局部分解方式,输入张量对应的数据属性为局部分解属性。
同样的,输出张量的数据属性是根据目标算子在对输入张量进行数据处理时所采用的数据处理方式得到的。
需要说明的是,输入张量或输出张量可能的数据属性也可以仅有一个。
由于,不同的数据属性的输入张量按照不同的数据处理方式进行数据处理时所消耗的运算资源不同。因此,服务器从各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,以此对待处理数据进行数据处理,从而提高对神经网络模型的训练效率。
在实际应用中,不同的运算关系的各目标算子用于筛选目标方式的方法不同。基于此,服务器需要先确定出各目标算子之间的运算关系,再根据运算关系,从各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式。
在本说明书实施例中,运算关系包括包括:单向运算关系包括、多向运算关系包括以及树结构运算关系包括。
单向运算关系用于表示至少三个算子组成的一条单向的运算关系。若各目标算子之间的运算关系为单向运算关系,则根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。具体如图5所示。
图5为本说明书实施例提供的一种单向运算关系的示意图。
在图5中,目标算子A、目标算子B以及目标算子C组成一条单向的运算关系。也就是说,目标算子A的输出张量输入到目标算子B中,目标算子B按照不同的数据处理方式对输入张量进行数据处理,得到目标算子B的输出张量,再将目标算子B的输出张量输入到目标算子C中,目标算子C按照不同的数据处理方式对输入张量进行数据处理,得到目标算子C的输出张量。
若目标算子A的输出张量包括两种数据属性、目标算子B的输出张量包括两种数据属性、目标算子C的输出张量中包括两种数据属性,则目标算子A、目标算子B以及目标算子C之间的数据处理方式的数量为2X2X2=8种。
服务器可以从这8种数据处理方式中确定对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。具体公式如下:
数据处理方式AC=min{数据处理方式AB[i][k]+数据处理方式BC[k][j]}
在上述公式中,i可以用于表示目标算子A的输出张量的第i个数据属性。k可以用于表示目标算子B的输出张量的第k个数据属性。j可以用于表示目标算子C的输出张量的第j个数据属性。数据处理方式AB[i][k]可以用于表示对目标算子A的输出张量的第i个数据属性进行数据处理,得到目标算子B的输出张量的第k个数据属性的数据处理方式。数据处理方式BC[k][j]可以用于表示对目标算子B的输出张量的第k个数据属性进行数据处理,得到目标算子C的输出张量的第j个数据属性的数据处理方式。min{}可以用于表示筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式。
在图5中,服务器在筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式为对目标算子A的输出张量的第1个数据属性进行数据处理,得到目标算子B的输出张量的第1个数据属性,再对目标算子B的输出张量的第1个数据属性进行数据处理,得到目标算子C的输出张量的第1个数据属性的数据处理方式之后,服务器可以将目标算子B进行隐藏,得到目标算子A与目标算子C的运算关系。服务器也可以将目标算子A、目标算子B、目标算子C视作一个融合算子,以在后续过程中确定各目标算子之间的新的运算关系。
多向运算关系用于表示至少三个目标算子组成的至少两条单向的运算关系。若各目标算子之间的运算关系为多向运算关系,则针对每条单向的运算关系,根据在该条单向的运算关系中的各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出在该条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式。
然后,服务器可以根据各条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,确定目标方式。具体如图6所示。
图6为本说明书实施例提供的一种多向运算关系的示意图。
在图6中,目标算子A、目标算子B以及目标算子C组成一条单向的运算关系。也就是说,目标算子A的输出张量输入到目标算子B中,目标算子B按照不同的数据处理方式对输入张量进行数据处理,得到目标算子B的输出张量,再将目标算子B的输出张量输入到目标算子C中,目标算子C按照不同的数据处理方式对输入张量进行数据处理,得到目标算子C的输出张量。目标算子A以及目标算子C组成另一条单向的运算关系。也就是说,目标算子A的输出张量输入到目标算子C中,目标算子C按照不同的数据处理方式对输入张量进行数据处理,得到目标算子C的输出张量。
若目标算子A的输出张量包括两种数据属性、目标算子B的输出张量包括两种数据属性、目标算子C的输出张量中包括两种数据属性,则目标算子A、目标算子B以及目标算子C之间的数据处理方式的数量为2X2X2=8种。
在目标算子A以及目标算子C组成另一条单向的运算关系中,目标算子A与目标算子C之间的数据处理方式的数量为2X2=4种。
服务器可以从目标算子A、目标算子B以及目标算子C组成一条单向的运算关系中的8种数据处理方式中确定对输入张量进行数据处理时所消耗的运算资源最小的第一数据处理方式,再从目标算子A以及目标算子C组成另一条单向的运算关系中的4种数据处理方式中确定对输入张量进行数据处理时所消耗的运算资源最小的第二数据处理方式。将第一数据处理方式以及第二数据处理方式,作为目标方式。具体公式如下:
数据处理方式AC=min{数据处理方式AB[i][k]+数据处理方式BC[k][j]}
+min{数据处理方式AC[i][j]}
在上述公式中,i可以用于表示目标算子A的输出张量的第i个数据属性。k可以用于表示目标算子B的输出张量的第k个数据属性。j可以用于表示目标算子C的输出张量的第j个数据属性。数据处理方式AB[i][k]可以用于表示对目标算子A的输出张量的第i个数据属性进行数据处理,得到目标算子B的输出张量的第k个数据属性的数据处理方式。数据处理方式BC[k][j]可以用于表示对目标算子B的输出张量的第k个数据属性进行数据处理,得到目标算子C的输出张量的第j个数据属性的数据处理方式。数据处理方式AC[i][j]可以用于表示对目标算子A的输出张量的第i个数据属性进行数据处理,得到目标算子C的输出张量的第j个数据属性的数据处理方式。min{}可以用于表示筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式。
在图6中,服务器在筛选出对输入张量进行数据处理时所消耗的运算资源最小的第一数据处理方式为对目标算子A的输出张量的第1个数据属性进行数据处理,得到目标算子B的输出张量的第1个数据属性,再对目标算子B的输出张量的第1个数据属性进行数据处理,得到目标算子C的输出张量的第2个数据属性的数据处理方式,且筛选出对输入张量进行数据处理时所消耗的运算资源最小的第二数据处理方式为对目标算子A的输出张量的第1个数据属性进行数据处理,得到目标算子C的输出张量的第1个数据属性之后,服务器可以将目标算子B进行隐藏,得到目标算子A与目标算子C的运算关系。服务器也可以将目标算子A、目标算子B、目标算子C视作一个融合算子,以在后续过程中确定各目标算子之间的新的运算关系。
树结构运算关系用于表示至少三个目标算子组成的树结构的运算关系,树结构运算关系包括:根节点以及叶子节点。若各目标算子之间的运算关系为树结构运算关系,则根据各叶子节点按照不同的数据处理方式对根节点输入的输入张量进行数据处理时所消耗的运算资源,从叶子节点在对根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。具体如图7所示。
图7为本说明书实施例提供的一种树结构运算关系的示意图。
在图7中,目标算子A、目标算子B以及目标算子C组成的树结构的运算关系。目标算子A为根节点,目标算子B以及目标算子C为叶子节点。也就是说,目标算子A的输出张量输入到目标算子B中,目标算子B按照不同的数据处理方式对输入张量进行数据处理,得到目标算子B的输出张量,再将目标算子A的输出张量输入到目标算子C中,目标算子C按照不同的数据处理方式对输入张量进行数据处理,得到目标算子C的输出张量。
若目标算子A的输出张量包括两种数据属性、目标算子B的输出张量包括两种数据属性、目标算子C的输出张量中包括两种数据属性,则目标算子A与目标算子B之间的数据处理方式的数量为2X2=4种,目标算子A与目标算子C之间的数据处理方式的数量为2X2=4种。
服务器可以从目标算子A以及目标算子B之间的4种数据处理方式中确定对输入张量进行数据处理时所消耗的运算资源最小的第一数据处理方式,再从目标算子A以及目标算子C之间的4种数据处理方式中确定对输入张量进行数据处理时所消耗的运算资源最小的第二数据处理方式。将第一数据处理方式以及第二数据处理方式,作为目标方式。具体公式如下:
数据处理方式ABC=min{数据处理方式AB[i][k]+数据处理方式AC[i][j]}
在上述公式中,i可以用于表示目标算子A的输出张量的第i个数据属性。k可以用于表示目标算子B的输出张量的第k个数据属性。j可以用于表示目标算子C的输出张量的第j个数据属性。数据处理方式AB[i][k]可以用于表示对目标算子A的输出张量的第i个数据属性进行数据处理,得到目标算子B的输出张量的第k个数据属性的数据处理方式。数据处理方式AC[i][j]可以用于表示对目标算子A的输出张量的第i个数据属性进行数据处理,得到目标算子C的输出张量的第j个数据属性的数据处理方式。min{}可以用于表示筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式。
在图7中,服务器在筛选出对输入张量进行数据处理时所消耗的运算资源最小的第一数据处理方式为对目标算子A的输出张量的第2个数据属性进行数据处理,得到目标算子B的输出张量的第2个数据属性,且筛选出对输入张量进行数据处理时所消耗的运算资源最小的第二数据处理方式为对目标算子A的输出张量的第2个数据属性进行数据处理,得到目标算子C的输出张量的第2个数据属性之后,服务器可以将目标算子A、目标算子B、目标算子C视作一个融合算子,以在后续过程中确定各目标算子之间的新的运算关系。
需要说明的是,服务器可以先确定出连接关系为单向运算关系以及多向运算关系的各目标算子之间的数据处理方式,得到融合算子。再确定连接关系为树结构运算关系的各目标算子(存在融合算子)之间的目标方式。具体公式如下:
数据处理方式ABC=min{数据处理方式AB[i][k]+数据处理方式AC[i][j]
+数据处理方式A[i]+数据处理方式B[k]+数据处理方式C[j]}
在上述公式中,i可以用于表示目标算子A的输出张量的第i个数据属性。k可以用于表示目标算子B的输出张量的第k个数据属性。j可以用于表示目标算子C的输出张量的第j个数据属性。数据处理方式AB[i][k]可以用于表示对目标算子A的输出张量的第i个数据属性进行数据处理,得到目标算子B的输出张量的第k个数据属性的数据处理方式。数据处理方式AC[i][j]可以用于表示对目标算子A的输出张量的第i个数据属性进行数据处理,得到目标算子C的输出张量的第j个数据属性的数据处理方式。数据处理方式A[i]可以用于表示若目标算子A为融合算子,融合算子中的各目标算子之间进行数据处理时所消耗的运算资源。数据处理方式B[i]可以用于表示若目标算子B为融合算子,融合算子中的各目标算子之间进行数据处理时所消耗的运算资源。数据处理方式C[i]可以用于表示若目标算子C为融合算子,融合算子中的各目标算子之间进行数据处理时所消耗的运算资源。min{}可以用于表示筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式。
在本说明书实施例中,树结构运算关系还包括:第一根节点以及第二根节点,且第一根节点与第二根节点存在公共叶子节点。服务器可以根据第一根节点对应的叶子节点按照不同的数据处理方式对第一根节点输入的输入张量进行数据处理时所消耗的运算资源,从第一根节点对应的叶子节点在对第一根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对第一根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式。
其次,服务器可以根据第二根节点对应的叶子节点按照不同的数据处理方式对第二根节点输入的输入张量进行数据处理时所消耗的运算资源,从第二根节点对应的叶子节点在对第二根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对第二根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式。
然后,服务器可以根据对第一根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,以及对第二根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,确定目标方式。具体如图8所示。
图8为本说明书实施例提供的另一种树结构运算关系的示意图。
在图8中,目标算子A、目标算子C以及目标算子D组成的树结构的运算关系。目标算子A为第一根节点,目标算子C以及目标算子D为第一根节点对应的叶子节点。目标算子B、目标算子D以及目标算子E组成的树结构的运算关系。目标算子B为第二根节点,目标算子D以及目标算子E为第二根节点对应的叶子节点。目标算子D为目标算子A以及目标算子B的公共叶子节点。
也就是说,目标算子A的输出张量输入到目标算子C中,目标算子C按照不同的数据处理方式对输入张量进行数据处理,得到目标算子C的输出张量,再将目标算子A的输出张量输入到目标算子D中,目标算子D按照不同的数据处理方式对输入张量进行数据处理,得到目标算子D的输出张量。
目标算子B的输出张量输入到目标算子D中,目标算子D按照不同的数据处理方式对输入张量进行数据处理,得到目标算子D的输出张量,再将目标算子B的输出张量输入到目标算子E中,目标算子E按照不同的数据处理方式对输入张量进行数据处理,得到目标算子E的输出张量
若目标算子A的输出张量包括两种数据属性、目标算子B的输出张量包括两种数据属性,则目标算子A对应的数据属性与目标算子B对应的数据属性的组合的数量为2X2=4种。
服务器可以从目标算子A对应的数据属性与目标算子B对应的数据属性的4种组合中,确定对第一根节点输入的输入张量进行数据处理时所消耗的运算资源最小的第一数据处理方式,以及对第二根节点输入的输入张量进行数据处理时所消耗的运算资源最小的第二数据处理方式,作为目标方式。具体公式如下:
数据处理方式ABCDE=min{数据处理方式AC[i][j]+数据处理方式AD[i][n]
+数据处理方式BD[k][n]+数据处理方式BE[k][m]}
在上述公式中,i可以用于表示目标算子A的输出张量的第i个数据属性。k可以用于表示目标算子B的输出张量的第k个数据属性。j可以用于表示目标算子C的输出张量的第j个数据属性。n可以用于表示目标算子D的输出张量的第n个数据属性。m可以用于表示目标算子E的输出张量的第m个数据属性。数据处理方式AC[i][j]可以用于表示对目标算子A的输出张量的第i个数据属性进行数据处理,得到目标算子C的输出张量的第j个数据属性的数据处理方式。数据处理方式AD[i][n]可以用于表示对目标算子A的输出张量的第i个数据属性进行数据处理,得到目标算子D的输出张量的第n个数据属性的数据处理方式。数据处理方式BD[k][n]可以用于表示对目标算子B的输出张量的第k个数据属性进行数据处理,得到目标算子D的输出张量的第n个数据属性的数据处理方式。数据处理方式BE[k][m]可以用于表示对目标算子B的输出张量的第k个数据属性进行数据处理,得到目标算子E的输出张量的第m个数据属性的数据处理方式。min{}可以用于表示筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式。
在图8中,服务器在筛选出对输入张量进行数据处理时所消耗的运算资源最小的的组合为目标算子A的第1个数据属性与目标算子B的第2个数据属性的组合之后,服务器可以将目标算子A以及目标算子B视作一个融合算子。当然,服务器也可以将目标算子A、目标算子B、目标算子C、目标算子D以及目标算子E视作一个融合算子。
S106:当接收到待处理数据时,将所述待处理数据输入到所述数据处理模型中,以按照所述目标方式,通过所述数据处理模型对所述待处理数据进行数据处理。
在本说明书实施例中,服务器可以当接收到待处理数据时,将待处理数据输入到数据处理模型中,以按照目标方式,通过数据处理模型对待处理数据进行数据处理。
从上述过程中可以看出,本方法可以根据算子运算关系图,确定各算子。其次,从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式。最后,当接收到待处理数据时,将待处理数据输入到数据处理模型中,以按照目标方式,通过数据处理模型对待处理数据进行数据处理。本方法可以提高对神经网络模型的训练效率。
以上为本说明书的一个或多个实施例提供的数据处理的方法,基于同样的思路,本说明书还提供了相应的数据处理的装置,如图9所示。
图9为本说明书实施例提供的数据处理的装置的结构示意图,具体包括:
获取模块900,用于获取数据处理模型对应的算子运算关系图,所述算子运算关系图用于表示所述数据处理模型所包含的各算子之间的运算关系;
确定模块902,用于根据所述算子运算关系图,确定各算子;
筛选模块904,用于从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式;
处理模块904,用于当接收到待处理数据时,将所述待处理数据输入到所述数据处理模型中,以按照所述目标方式,通过所述数据处理模型对所述待处理数据进行数据处理。
可选地,所述数据处理方式包括:按列切分方式,所述按列切分方式是通过算子将输入张量沿着纵向对称轴进行切分,得到切分后的张量,对所述切分后的张量进行运算,得到运算结果,并对所述运算结果进行拼接,得到输出张量的数据处理方式。
可选地,所述数据处理方式包括:按行切分方式,所述按行切分方式是通过算子将输入张量沿着横向对称轴进行切分,得到切分后的张量,对所述切分后的张量进行运算,得到运算结果,并对所述运算结果进行拼接,得到输出张量的数据处理方式。
可选地,所述数据处理方式包括:复制方式,所述复制方式是通过算子将输入张量进行复制,得到与输入张量相同的输出张量的数据处理方式。
可选地,所述数据处理方式包括:局部分解方式,所述局部分解方式是通过算子将输入张量进行分解,得到形状相同且元素不同的分解后的张量,对所述分解后的张量进行运算,得到运算结果,并对所述运算结果进行相同位置的元素相加,得到输出张量的数据处理方式。
可选地,所述运算关系包括:单向运算关系,所述单向运算关系用于表示至少三个算子组成的一条单向的运算关系;
所述筛选模块904具体用于,若各目标算子之间的运算关系为单向运算关系,则根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。
可选地,所述运算关系包括:多向运算关系,所述多向运算关系用于表示至少三个算子组成的至少两条单向的运算关系;
所述筛选模块904具体用于,若各目标算子之间的运算关系为多向运算关系,则针对每条单向的运算关系,根据在该条单向的运算关系中的各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出在该条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,根据各条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,确定目标方式。
可选地,所述运算关系包括:树结构运算关系,所述树结构运算关系用于表示至少三个算子组成的树结构的运算关系,所述树结构运算关系包括:根节点以及叶子节点;
所述筛选模块904具体用于,若各目标算子之间的运算关系为树结构运算关系,则根据各叶子节点按照不同的数据处理方式对所述根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述叶子节点在对所述根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。
可选地,所述树结构运算关系还包括:第一根节点以及第二根节点,且所述第一根节点与所述第二根节点存在公共叶子节点;
所述筛选模块904具体用于,根据所述第一根节点对应的叶子节点按照不同的数据处理方式对所述第一根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述第一根节点对应的叶子节点在对所述第一根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述第一根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,根据所述第二根节点对应的叶子节点按照不同的数据处理方式对所述第二根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述第二根节点对应的叶子节点在对所述第二根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述第二根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,根据对所述第一根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,以及对所述第二根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,确定目标方式。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的数据处理的方法。
本说明书还提供了图10所示的电子设备的结构示意图。如图10所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1提供的数据处理的方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (14)

1.一种数据处理的方法,其特征在于,包括:
获取数据处理模型对应的算子运算关系图,所述算子运算关系图用于表示所述数据处理模型所包含的各算子之间的运算关系;
根据所述算子运算关系图,确定各算子;
从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,所述数据处理方式包括:局部分解方式,所述局部分解方式是通过算子将输入张量进行分解,得到形状相同且元素不同的分解后的张量,对所述分解后的张量进行运算,得到运算结果,并对所述运算结果进行相同位置的元素相加,得到输出张量的数据处理方式;
当接收到待处理数据时,将所述待处理数据输入到所述数据处理模型中,以按照所述目标方式,通过所述数据处理模型对所述待处理数据进行数据处理,其中,对于单向运算关系或是多向运算关系上的三个算子,根据所述目标方式,将至少一条运算关系中的中间算子隐藏,并重新确定另外两个算子之间的运算关系,并根据重新确定出的运算关系以及所述目标方式,进行数据处理。
2.如权利要求1所述的方法,其特征在于,所述数据处理方式包括:按列切分方式,所述按列切分方式是通过算子将输入张量沿着纵向对称轴进行切分,得到切分后的张量,对所述切分后的张量进行运算,得到运算结果,并对所述运算结果进行拼接,得到输出张量的数据处理方式。
3.如权利要求1所述的方法,其特征在于,所述数据处理方式包括:按行切分方式,所述按行切分方式是通过算子将输入张量沿着横向对称轴进行切分,得到切分后的张量,对所述切分后的张量进行运算,得到运算结果,并对所述运算结果进行拼接,得到输出张量的数据处理方式。
4.如权利要求1所述的方法,其特征在于,所述数据处理方式包括:复制方式,所述复制方式是通过算子将输入张量进行复制,得到与输入张量相同的输出张量的数据处理方式。
5.如权利要求1所述的方法,其特征在于,所述运算关系包括:单向运算关系,所述单向运算关系用于表示至少三个算子组成的一条单向的运算关系;
根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,具体包括:
若各目标算子之间的运算关系为单向运算关系,则根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。
6.如权利要求1所述的方法,其特征在于,所述运算关系包括:多向运算关系,所述多向运算关系用于表示至少三个算子组成的至少两条单向的运算关系;
根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,具体包括:
若各目标算子之间的运算关系为多向运算关系,则针对每条单向的运算关系,根据在该条单向的运算关系中的各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出在该条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式;
根据各条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,确定目标方式。
7.如权利要求1所述的方法,其特征在于,所述运算关系包括:树结构运算关系,所述树结构运算关系用于表示至少三个算子组成的树结构的运算关系,所述树结构运算关系包括:根节点以及叶子节点;
根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,具体包括:
若各目标算子之间的运算关系为树结构运算关系,则根据各叶子节点按照不同的数据处理方式对所述根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述叶子节点在对所述根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。
8.如权利要求7所述的方法,其特征在于,所述树结构运算关系还包括:第一根节点以及第二根节点,且所述第一根节点与所述第二根节点存在公共叶子节点;
根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,具体包括:
根据所述第一根节点对应的叶子节点按照不同的数据处理方式对所述第一根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述第一根节点对应的叶子节点在对所述第一根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述第一根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式;
根据所述第二根节点对应的叶子节点按照不同的数据处理方式对所述第二根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述第二根节点对应的叶子节点在对所述第二根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述第二根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式;
根据对所述第一根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,以及对所述第二根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,确定目标方式。
9.一种数据处理的装置,其特征在于,包括:
获取模块,用于获取数据处理模型对应的算子运算关系图,所述算子运算关系图用于表示所述数据处理模型所包含的各算子之间的运算关系;
确定模块,用于根据所述算子运算关系图,确定各算子;
筛选模块,用于从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式,所述数据处理方式包括:局部分解方式,所述局部分解方式是通过算子将输入张量进行分解,得到形状相同且元素不同的分解后的张量,对所述分解后的张量进行运算,得到运算结果,并对所述运算结果进行相同位置的元素相加,得到输出张量的数据处理方式;
处理模块,用于当接收到待处理数据时,将所述待处理数据输入到所述数据处理模型中,以按照所述目标方式,通过所述数据处理模型对所述待处理数据进行数据处理,其中,对于单向运算关系或是多向运算关系上的三个算子,根据所述目标方式,将至少一条运算关系中的中间算子隐藏,并重新确定另外两个算子之间的运算关系,并根据重新确定出的运算关系以及所述目标方式,进行数据处理。
10.如权利要求9所述的装置,其特征在于,所述运算关系包括:单向运算关系,所述单向运算关系用于表示至少三个算子组成的一条单向的运算关系;
所述筛选模块,具体用于若各目标算子之间的运算关系为单向运算关系,则根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。
11.如权利要求9所述的装置,其特征在于,所述运算关系包括:多向运算关系,所述多向运算关系用于表示至少三个算子组成的至少两条单向的运算关系;
所述筛选模块,具体用于若各目标算子之间的运算关系为多向运算关系,则针对每条单向的运算关系,根据在该条单向的运算关系中的各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从所述各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中,筛选出在该条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,根据各条单向的运算关系中的对输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,确定目标方式。
12.如权利要求9所述的装置,其特征在于,所述运算关系包括:树结构运算关系,所述树结构运算关系用于表示至少三个算子组成的树结构的运算关系,所述树结构运算关系包括:根节点以及叶子节点;
所述筛选模块,具体用于若各目标算子之间的运算关系为树结构运算关系,则根据各叶子节点按照不同的数据处理方式对所述根节点输入的输入张量进行数据处理时所消耗的运算资源,从所述叶子节点在对所述根节点输入的输入张量进行数据处理时所采用的各数据处理方式中,筛选出对所述根节点输入的输入张量进行数据处理时所消耗的运算资源最小的数据处理方式,作为目标方式。
13.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~8任一项所述的方法。
14.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~8任一项所述的方法。
CN202310216915.5A 2023-03-01 2023-03-01 一种数据处理的方法、装置、存储介质及电子设备 Active CN116341642B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310216915.5A CN116341642B (zh) 2023-03-01 2023-03-01 一种数据处理的方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310216915.5A CN116341642B (zh) 2023-03-01 2023-03-01 一种数据处理的方法、装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN116341642A CN116341642A (zh) 2023-06-27
CN116341642B true CN116341642B (zh) 2023-11-10

Family

ID=86885040

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310216915.5A Active CN116341642B (zh) 2023-03-01 2023-03-01 一种数据处理的方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN116341642B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117806835A (zh) * 2024-02-29 2024-04-02 浪潮电子信息产业股份有限公司 一种任务分配方法、装置及电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485837A (zh) * 2021-07-21 2021-10-08 瀚博半导体(上海)有限公司 一种基于并行分支和张量切分的张量处理方法和处理系统
CN113961351A (zh) * 2021-10-28 2022-01-21 北京百度网讯科技有限公司 深度学习模型的分布式训练方法、装置、设备及存储介质
CN114186633A (zh) * 2021-12-10 2022-03-15 北京百度网讯科技有限公司 模型的分布式训练方法、装置、设备以及存储介质
CN114841327A (zh) * 2022-05-27 2022-08-02 北京字节跳动网络技术有限公司 计算图的处理方法、装置、可读介质及电子设备
CN115543639A (zh) * 2022-12-01 2022-12-30 阿里云计算有限公司 分布式执行深度学习任务的优化方法和分布式系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485837A (zh) * 2021-07-21 2021-10-08 瀚博半导体(上海)有限公司 一种基于并行分支和张量切分的张量处理方法和处理系统
CN113961351A (zh) * 2021-10-28 2022-01-21 北京百度网讯科技有限公司 深度学习模型的分布式训练方法、装置、设备及存储介质
CN114186633A (zh) * 2021-12-10 2022-03-15 北京百度网讯科技有限公司 模型的分布式训练方法、装置、设备以及存储介质
CN114841327A (zh) * 2022-05-27 2022-08-02 北京字节跳动网络技术有限公司 计算图的处理方法、装置、可读介质及电子设备
CN115543639A (zh) * 2022-12-01 2022-12-30 阿里云计算有限公司 分布式执行深度学习任务的优化方法和分布式系统

Also Published As

Publication number Publication date
CN116341642A (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
CN107622080B (zh) 一种数据处理方法及设备
CN111966334B (zh) 一种业务处理方法、装置及设备
CN116341642B (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN117033527B (zh) 一种知识图谱的构建方法、装置、存储介质及电子设备
CN110968404A (zh) 一种设备数据处理方法及装置
CN115756449B (zh) 一种页面复用方法、装置、存储介质及电子设备
CN116304704A (zh) 一种模型训练方法、装置、存储介质及电子设备
CN116521705A (zh) 一种数据查询方法、装置、存储介质及电子设备
CN115934161A (zh) 一种代码变更的影响分析方法、装置以及设备
CN115878654A (zh) 一种数据查询的方法、装置、设备及存储介质
CN110502589B (zh) 一种节点血缘关系确定方法、装置以及电子设备
CN111984247A (zh) 一种业务处理方法、装置和电子设备
CN110704742A (zh) 一种特征提取方法及装置
CN117455015B (zh) 一种模型优化的方法、装置、存储介质及电子设备
CN116167431B (zh) 一种基于混合精度模型加速的业务处理方法及装置
CN116821647B (zh) 基于样本偏离评估的数据标注的优化方法、装置及设备
CN116755862B (zh) 一种算子优化调度模型的训练方法、装置、介质及设备
CN117118523B (zh) 一种信息传输系统、方法、装置、存储介质及电子设备
CN117033420B (zh) 一种知识图谱同概念下实体数据可视化展示方法及装置
CN117591217A (zh) 一种信息展示方法、装置、设备及存储介质
CN116483858A (zh) 数据查询方法及装置
CN116797392A (zh) 一种针对财务数据的自动化核销方法、装置、设备及介质
CN117406982A (zh) 一种存算一体应用生成系统和生成方法、存储介质及设备
CN117494800A (zh) 一种基于构建出的核聚变知识图谱的任务执行方法及装置
CN117593003A (zh) 一种模型训练的方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant