CN111984414A - 一种数据处理的方法、系统、设备及可读存储介质 - Google Patents

一种数据处理的方法、系统、设备及可读存储介质 Download PDF

Info

Publication number
CN111984414A
CN111984414A CN202010851607.6A CN202010851607A CN111984414A CN 111984414 A CN111984414 A CN 111984414A CN 202010851607 A CN202010851607 A CN 202010851607A CN 111984414 A CN111984414 A CN 111984414A
Authority
CN
China
Prior art keywords
data processing
data
processed
model
devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010851607.6A
Other languages
English (en)
Other versions
CN111984414B (zh
Inventor
仝培霖
阚宏伟
朱克峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN202010851607.6A priority Critical patent/CN111984414B/zh
Publication of CN111984414A publication Critical patent/CN111984414A/zh
Application granted granted Critical
Publication of CN111984414B publication Critical patent/CN111984414B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种数据处理的方法,包括:获取预设数据处理模型、待处理数据及数据处理设备的设备数量;依据设备数量将预设数据处理模型按照通道拆分为对应数目的数据处理子模型,并令数据处理子模型分别在数据处理设备上运行;将待处理数据分别输入到每个数据处理子模型中,并令每个数据处理子模型对待处理数据进行处理;根据每个数据处理子模型得到的处理结果确定最终数据处理结果。本申请实现了对人工智能应用高度并行的拆分,减少了模型的参数量、计算量以及模型运行中的时延,极大的提高了人工智能应用处理数据的速度。本申请同时还提供了一种数据处理的系统、设备及可读存储介质,具有上述有益效果。

Description

一种数据处理的方法、系统、设备及可读存储介质
技术领域
本申请涉及数据处理领域,特别涉及一种数据处理的方法、系统、设备及可读存储介质。
背景技术
随着人工智能理论和相关技术的日渐成熟,在各种场景下的人工智能应用也越来越多的出现在大众的视野中。日常生活中的图片、视频处理、人脸识别、语音识别和自动驾驶等场景常应用人工智能技术。但是目前人工智能计算需要大量的浮点运算、内存和电量开销,使得目前人工智能算法的运行存在着成本高昂、速度慢和并行处理效率低下的问题。
目前的人工智能应用大多在单机中运行,但是单机计算能力往往无法实现实时处理,因此需要多机的计算能力同时处理数据,实际运行的效果会更好。对此有研究人员提出了串行拆分,假设有N个相同的设备,将人工智能模型中各层按照运行的先后顺序,根据各层所需算力,将模型的整体算力平均分配到N个设备上,然后在N个设备上按照模型架构依次运行,实现模型的串行拆分。
虽然串行拆分技术易实现,但是此种拆分算法无法对单个任务处理的延时进行缩减,吞吐量一般也不会有更好的提高,导致此种拆分方法对实际应用的提升效果并不明显。
因此,如何提高人工智能应用处理数据的速度是本领域技术人员目前需要解决的技术问题。
发明内容
本申请的目的是提供一种数据处理的方法、系统、设备及可读存储介质,用于提高人工智能应用处理数据的速度。
为解决上述技术问题,本申请提供一种数据处理的方法,该方法包括:
获取预设数据处理模型、待处理数据及数据处理设备的设备数量;
依据所述设备数量将所述预设数据处理模型按照通道拆分为对应数目的数据处理子模型,并令所述数据处理子模型分别在所述数据处理设备上运行;
将所述待处理数据分别输入到每个所述数据处理子模型中,并令每个所述数据处理子模型对所述待处理数据进行处理;
根据每个所述数据处理子模型得到的处理结果确定最终数据处理结果。
可选的,依据所述设备数量将所述预设数据处理模型按照通道拆分为对应数目的数据处理子模型,包括:
依据所述设备数量将所述预设数据处理模型每一层的输入通道和输出通道分别进行拆分,得到所述数据处理子模型。
可选的,将所述待处理数据分别输入到每个所述数据处理子模型中,包括:
依据所述设备数量对所述待处理数据进行随机选择,得到对应数目的待处理数据子集;
将每个所述待处理数据子集分别输入至每个所述数据处理子模型中。
可选的,将所述待处理数据参数分别输入到每个所述数据处理子模型中,包括:
按照预设顺序对所述待处理数据进行排序,并依据所述设备数量将排序后的待处理数据划分为对应数目的待处理数据子集;
将每个所述待处理数据子集分别输入至每个所述数据处理子模型中。
可选的,令每个所述数据处理子模型对所述待处理数据进行处理,包括:
确定每个所述数据处理子模型中混淆层的位置;
依据所述设备数量将所述混淆层的输出结果平均分为对应数目的输出子结果,并将所述输出子结果均匀输入到每个所述数据处理子模型的混淆层的下一层中。
可选的,在令所述数据处理子模型分别在所述数据处理设备上运行之后,还包括:
获取训练数据,并利用所述训练数据对每个所述数据处理子模型进行重训练。
本申请还提供一种数据处理的系统,该系统包括:
获取模块,用于获取预设数据处理模型、待处理数据及数据处理设备的设备数量;
拆分模块,用于依据所述设备数量将所述预设数据处理模型按照通道拆分为对应数目的数据处理子模型,并令所述数据处理子模型分别在所述数据处理设备上运行;
数据处理模块,用于将所述待处理数据分别输入到每个所述数据处理子模型中,并令每个所述数据处理子模型对所述待处理数据进行处理;
确定模块,用于根据每个所述数据处理子模型得到的处理结果确定最终数据处理结果。
可选的,所述拆分模块包括:
拆分子模块,用于依据所述设备数量将所述预设数据处理模型每一层的输入通道和输出通道分别进行拆分,得到所述数据处理子模型。
本申请还提供一种数据处理设备,该数据处理设备包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上述任一项所述数据处理的方法的步骤。
本申请还提供一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述数据处理的方法的步骤。
本申请所提供数据处理的方法,包括:获取预设数据处理模型、待处理数据及数据处理设备的设备数量;依据设备数量将预设数据处理模型按照通道拆分为对应数目的数据处理子模型,并令数据处理子模型分别在数据处理设备上运行;将待处理数据分别输入到每个数据处理子模型中,并令每个数据处理子模型对待处理数据进行处理;根据每个数据处理子模型得到的处理结果确定最终数据处理结果。
本申请所提供的技术方案,通过依据设备数量将预设数据处理模型按照通道拆分为对应数目的数据处理子模型,并令数据处理子模型分别在数据处理设备上运行,然后利用每个数据处理子模型对待处理数据进行处理,最后根据每个数据处理子模型得到的处理结果确定最终数据处理结果,实现了对人工智能应用高度并行的拆分,减少了模型的参数量、计算量以及模型运行中的时延,极大的提高了人工智能应用处理数据的速度。本申请同时还提供了一种数据处理的系统、设备及可读存储介质,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例所提供的一种数据处理的方法的流程图;
图2为图1所提供的一种数据处理的方法中S103的一种实际表现方式的流程图;
图3为本申请实施例所提供的一种数据处理的系统的结构图;
图4为本申请实施例所提供的一种数据处理设备的结构图。
具体实施方式
本申请的核心是提供一种数据处理的方法、系统、设备及可读存储介质,用于提高人工智能应用处理数据的速度。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
基于目前的人工智能应用的运行存在着成本高昂、速度慢和并行处理效率低下的问题,本申请提供了一种数据处理的方法,用于解决上述问题。
请参考图1,图1为本申请实施例所提供的一种数据处理的方法的流程图。
其具体包括如下步骤:
S101:获取预设数据处理模型、待处理数据及数据处理设备的设备数量;
这里提到的预设数据处理模型即为已经训练好的待拆分的处理模型,预设数据处理模型能够对数据进行处理,但存在的问题是仅能运行在单主机中,导致人工智能应用处理数据的速度较低,为解决此问题,本申请通过对预设数据处理模型进行并行拆分,并将拆分后的模型运行在各个数据处理设备上,进而提高了数据处理的速度。
S102:依据设备数量将预设数据处理模型按照通道拆分为对应数目的数据处理子模型,并令数据处理子模型分别在数据处理设备上运行;
可选的,为保证数据处理子模型处理数据的精度,这里提到的依据设备数量将预设数据处理模型按照通道拆分为对应数目的数据处理子模型,其具体可以为依据设备数量将预设数据处理模型每一层输出通道进行拆分,得到数据处理子模型。
在一个具体实施例中,假设有N个相同的数据处理设备,本申请将预设数据处理模型的每层按照通道平均拆分为N份,分别放在N个数据处理设备上运行,因为预设数据处理模型每层内的算子结构相同,因此只需要按照通道数将预设数据处理模型和中间数据平均拆分到N个数据处理设备即可,然后N个数据处理设备并行处理,这样对每层的运算速度会有极大地提升。
可选的,在令数据处理子模型分别在数据处理设备上运行之后,还可以执行如下步骤:
获取训练数据,并利用训练数据对每个数据处理子模型进行重训练。
由于经过模型拆分重构之后生成了新模型,此时直接使用新模型会有精度损失,因此还可以对模型进行重训练,在一个具体实施例中,可以使用原始输入数据集作为输入,学习率可以适当调小,一次训练所选取的样本数可以根据设备能力进行选择,优化算法使用常用的梯度下降法即可。因为此种重训练是基于前期的网络参数基础,所以重训练速度较快,对比重新训练一个新的模型要快很多。
S103:将待处理数据分别输入到每个数据处理子模型中,并令每个数据处理子模型对待处理数据进行处理;
可选的,为进一步减少模型的参数量和计算量,步骤S102中提到的,依据设备数量将预设数据处理模型按照通道拆分为对应数目的数据处理子模型,其具体可以为:
依据设备数量将预设数据处理模型每一层的输入通道和输出通道分别进行拆分,得到数据处理子模型。
在此基础上,为提高待处理数据的输入速度,这里提到的将待处理数据分别输入到每个数据处理子模型中,其具体可以为:
依据设备数量对待处理数据进行随机选择,得到对应数目的待处理数据子集;
将每个待处理数据子集分别输入至每个数据处理子模型中。
可选的,为提高每个数据处理子模型的数据处理精度,这里提到的将待处理数据分别输入到每个数据处理子模型中,其具体也可以为:
按照预设顺序对待处理数据进行排序,并依据设备数量将排序后的待处理数据划分为对应数目的待处理数据子集;
将每个待处理数据子集分别输入至每个数据处理子模型中。
可选的,这里提到的预设顺序具体可以为由大到小的顺序,也可以为由小到大的顺序,本申请对此不做具体限定;这里提到的依据设备数量将排序后的待处理数据划分为对应数目的待处理数据子集的目的为,令每个数据处理设备上的数据处理子模型对不同类别的数据进行处理,进而提高数据处理子模型的鲁棒性。
在一个具体实施例中,以卷积神经网络模型为例,对卷积神经网络模型的某一层Li来说,其上层输入为Cin,该层输出为Cout,卷积核的高和宽分别为Kh和Kw,那么该层的所有卷积参数量为Kh*Kw*Cin*Cout,若仅将该层的输出通道数按照数据处理设备的设备数量拆分为N份,而输入通道未改变,那么N个数据处理设备的总参数量与原本的单机的参数量相同;而若对该层的输入通道也进行了拆分,那么N个数据处理设备的总参数量将变为原本的单机的参数量的1/N,进而减少了模型的参数量、计算量以及模型运行中的时延。
S104:根据每个数据处理子模型得到的处理结果确定最终数据处理结果。
可选的,这里提到的根据每个数据处理子模型得到的处理结果确定最终数据处理结果,其具体可以为对每个处理结果按照预设顺序进行排列组合得到该最终数据处理结果,也可以对每个处理结果进行相应的计算得到该最终数据处理结果,本申请对此不做具体限定,可以根据任务需求和实际情况自行设定。
基于上述技术方案,本申请所提供的一种数据处理的方法,通过依据设备数量将预设数据处理模型按照通道拆分为对应数目的数据处理子模型,并令数据处理子模型分别在数据处理设备上运行,然后利用每个数据处理子模型对待处理数据进行处理,最后根据每个数据处理子模型得到的处理结果确定最终数据处理结果,实现了对人工智能应用高度并行的拆分,减少了模型的参数量、计算量以及模型运行中的时延,极大的提高了人工智能应用处理数据的速度。
针对于上一实施例的步骤S103,其中所描述的令每个数据处理子模型对待处理数据进行处理,其具体也可以通过执行图2所示的步骤实现,下面结合图2进行说明。
请参考图2,图2为图1所提供的一种数据处理的方法中S103的一种实际表现方式的流程图。
其具体包括以下步骤:
S201:确定每个数据处理子模型中混淆层的位置;
这里提到的混淆层即为数据处理子模型中需要对输出结果进行数据混淆的层,混淆层可以为一个也可以为多个,具体可以依据模型的精度要求进行设置,混淆层的位置可由用户设定。
S202:依据设备数量将混淆层的输出结果平均分为对应数目的输出子结果,并将输出子结果均匀输入到每个数据处理子模型的混淆层的下一层中。
由于通道拆分和重构实现了组卷积的效果,若直接到最后输出,输出结果只会和某些通道有关,只有局部信息,而全局信息交互不足,最终导致网络的表达能力很弱,精度下降。因此本申请实施例先确定每个数据处理子模型中混淆层的位置,然后依据设备数量将混淆层的输出结果平均分为对应数目的输出子结果,并将输出子结果均匀输入到每个数据处理子模型的混淆层的下一层中,使得每个设备上都有其他设备上的信息,实现数据均匀混淆,使得全局信息更加充足。
请参考图3,图3为本申请实施例所提供的一种数据处理的系统的结构图。
该系统可以包括:
获取模块100,用于获取预设数据处理模型、待处理数据及数据处理设备的设备数量;
拆分模块200,用于依据设备数量将预设数据处理模型按照通道拆分为对应数目的数据处理子模型,并令数据处理子模型分别在数据处理设备上运行;
数据处理模块300,用于将待处理数据分别输入到每个数据处理子模型中,并令每个数据处理子模型对待处理数据进行处理;
确定模块400,用于根据每个数据处理子模型得到的处理结果确定最终数据处理结果。
在上述实施例的基础上,在一个具体实施例中,该拆分模块200可以包括:
拆分子模块,用于依据设备数量将预设数据处理模型每一层的输入通道和输出通道分别进行拆分,得到数据处理子模型。
在上述实施例的基础上,在一个具体实施例中,该数据处理模块300可以包括:
选择子模块,用于依据设备数量对待处理数据进行随机选择,得到对应数目的待处理数据子集;
第一输入子模块,用于将每个待处理数据子集分别输入至每个数据处理子模型中。
在上述实施例的基础上,在一个具体实施例中,该数据处理模块300也可以包括:
排序子模块,用于按照预设顺序对待处理数据进行排序,并依据设备数量将排序后的待处理数据划分为对应数目的待处理数据子集;
第二输入子模块,用于将每个待处理数据子集分别输入至每个数据处理子模型中。
在上述实施例的基础上,在一个具体实施例中,该数据处理模块300也可以包括:
确定子模块,用于确定每个数据处理子模型中混淆层的位置;
输出子模块,用于依据设备数量将混淆层的输出结果平均分为对应数目的输出子结果,并将输出子结果均匀输入到每个数据处理子模型的混淆层的下一层中。
在上述实施例的基础上,在一个具体实施例中,该系统还可以包括:
重训练模块,用于获取训练数据,并利用训练数据对每个数据处理子模型进行重训练。
由于系统部分的实施例与方法部分的实施例相互对应,因此系统部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
请参考图4,图4为本申请实施例所提供的一种数据处理设备的结构图。
该数据处理设备500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)522(例如,一个或一个以上处理器)和存储器532,一个或一个以上存储应用程序542或数据544的存储介质530(例如一个或一个以上海量存储设备)。其中,存储器532和存储介质530可以是短暂存储或持久存储。存储在存储介质530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对装置中的一系列指令操作。更进一步地,处理器522可以设置为与存储介质530通信,在数据处理设备500上执行存储介质530中的一系列指令操作。
数据处理设备500还可以包括一个或一个以上电源525,一个或一个以上有线或无线网络接口550,一个或一个以上输入输出接口558,和/或,一个或一个以上操作系统541,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述图1至图2所描述的数据处理的方法中的步骤由数据处理设备基于该图4所示的结构实现。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置、设备和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,功能调用装置,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上对本申请所提供的一种数据处理的方法、系统、设备及可读存储介质进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (10)

1.一种数据处理的方法,其特征在于,包括:
获取预设数据处理模型、待处理数据及数据处理设备的设备数量;
依据所述设备数量将所述预设数据处理模型按照通道拆分为对应数目的数据处理子模型,并令所述数据处理子模型分别在所述数据处理设备上运行;
将所述待处理数据分别输入到每个所述数据处理子模型中,并令每个所述数据处理子模型对所述待处理数据进行处理;
根据每个所述数据处理子模型得到的处理结果确定最终数据处理结果。
2.根据权利要求1所述的方法,其特征在于,依据所述设备数量将所述预设数据处理模型按照通道拆分为对应数目的数据处理子模型,包括:
依据所述设备数量将所述预设数据处理模型每一层的输入通道和输出通道分别进行拆分,得到所述数据处理子模型。
3.根据权利要求2所述的方法,其特征在于,将所述待处理数据分别输入到每个所述数据处理子模型中,包括:
依据所述设备数量对所述待处理数据进行随机选择,得到对应数目的待处理数据子集;
将每个所述待处理数据子集分别输入至每个所述数据处理子模型中。
4.根据权利要求2所述的方法,其特征在于,将所述待处理数据参数分别输入到每个所述数据处理子模型中,包括:
按照预设顺序对所述待处理数据进行排序,并依据所述设备数量将排序后的待处理数据划分为对应数目的待处理数据子集;
将每个所述待处理数据子集分别输入至每个所述数据处理子模型中。
5.根据权利要求1所述的方法,其特征在于,令每个所述数据处理子模型对所述待处理数据进行处理,包括:
确定每个所述数据处理子模型中混淆层的位置;
依据所述设备数量将所述混淆层的输出结果平均分为对应数目的输出子结果,并将所述输出子结果均匀输入到每个所述数据处理子模型的混淆层的下一层中。
6.根据权利要求5所述的方法,其特征在于,在令所述数据处理子模型分别在所述数据处理设备上运行之后,还包括:
获取训练数据,并利用所述训练数据对每个所述数据处理子模型进行重训练。
7.一种数据处理的系统,其特征在于,包括:
获取模块,用于获取预设数据处理模型、待处理数据及数据处理设备的设备数量;
拆分模块,用于依据所述设备数量将所述预设数据处理模型按照通道拆分为对应数目的数据处理子模型,并令所述数据处理子模型分别在所述数据处理设备上运行;
数据处理模块,用于将所述待处理数据分别输入到每个所述数据处理子模型中,并令每个所述数据处理子模型对所述待处理数据进行处理;
确定模块,用于根据每个所述数据处理子模型得到的处理结果确定最终数据处理结果。
8.根据权利要求7所述的系统,其特征在于,所述拆分模块包括:
拆分子模块,用于依据所述设备数量将所述预设数据处理模型每一层的输入通道和输出通道分别进行拆分,得到所述数据处理子模型。
9.一种数据处理设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至6任一项所述数据处理的方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述数据处理的方法的步骤。
CN202010851607.6A 2020-08-21 2020-08-21 一种数据处理的方法、系统、设备及可读存储介质 Active CN111984414B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010851607.6A CN111984414B (zh) 2020-08-21 2020-08-21 一种数据处理的方法、系统、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010851607.6A CN111984414B (zh) 2020-08-21 2020-08-21 一种数据处理的方法、系统、设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN111984414A true CN111984414A (zh) 2020-11-24
CN111984414B CN111984414B (zh) 2022-05-24

Family

ID=73443094

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010851607.6A Active CN111984414B (zh) 2020-08-21 2020-08-21 一种数据处理的方法、系统、设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN111984414B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112783807A (zh) * 2020-12-31 2021-05-11 深圳大普微电子科技有限公司 一种模型计算方法及系统
WO2022012119A1 (zh) * 2020-07-17 2022-01-20 Oppo广东移动通信有限公司 数据处理方法、装置、电子设备及存储介质
CN114035936A (zh) * 2021-10-15 2022-02-11 北京潞晨科技有限公司 一种基于人工智能的多维并行处理方法、系统、设备和可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109146076A (zh) * 2018-08-13 2019-01-04 东软集团股份有限公司 模型生成方法及装置、数据处理方法及装置
WO2019081782A1 (en) * 2017-10-27 2019-05-02 Deepmind Technologies Limited AUTOMATIC LEARNING SYSTEMS WITH PARAMETER-BASED PARAMETER ADAPTATION FOR RAPID OR LOWER LEARNING
CN109886415A (zh) * 2019-01-07 2019-06-14 鲁班嫡系机器人(深圳)有限公司 数据处理方法、装置、计算机设备和存储介质
CN111276120A (zh) * 2020-01-21 2020-06-12 华为技术有限公司 语音合成方法、装置和计算机可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019081782A1 (en) * 2017-10-27 2019-05-02 Deepmind Technologies Limited AUTOMATIC LEARNING SYSTEMS WITH PARAMETER-BASED PARAMETER ADAPTATION FOR RAPID OR LOWER LEARNING
CN109146076A (zh) * 2018-08-13 2019-01-04 东软集团股份有限公司 模型生成方法及装置、数据处理方法及装置
CN109886415A (zh) * 2019-01-07 2019-06-14 鲁班嫡系机器人(深圳)有限公司 数据处理方法、装置、计算机设备和存储介质
CN111276120A (zh) * 2020-01-21 2020-06-12 华为技术有限公司 语音合成方法、装置和计算机可读存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022012119A1 (zh) * 2020-07-17 2022-01-20 Oppo广东移动通信有限公司 数据处理方法、装置、电子设备及存储介质
CN112783807A (zh) * 2020-12-31 2021-05-11 深圳大普微电子科技有限公司 一种模型计算方法及系统
WO2022142478A1 (zh) * 2020-12-31 2022-07-07 深圳大普微电子科技有限公司 一种模型计算方法及系统
CN112783807B (zh) * 2020-12-31 2023-12-29 深圳大普微电子科技有限公司 一种模型计算方法及系统
CN114035936A (zh) * 2021-10-15 2022-02-11 北京潞晨科技有限公司 一种基于人工智能的多维并行处理方法、系统、设备和可读存储介质
CN114035936B (zh) * 2021-10-15 2024-05-17 北京潞晨科技有限公司 一种基于人工智能的多维并行处理方法、系统、设备和可读存储介质

Also Published As

Publication number Publication date
CN111984414B (zh) 2022-05-24

Similar Documents

Publication Publication Date Title
CN111984414B (zh) 一种数据处理的方法、系统、设备及可读存储介质
CN109993299B (zh) 数据训练方法及装置、存储介质、电子装置
EP3179415B1 (en) Systems and methods for a multi-core optimized recurrent neural network
US9298760B1 (en) Method for shard assignment in a large-scale data processing job
CN108536650B (zh) 生成梯度提升树模型的方法和装置
KR20190049593A (ko) 콘볼루션 신경망에서의 연산들을 수행하는 방법 및 장치
Hadian et al. High performance parallel k-means clustering for disk-resident datasets on multi-core CPUs
CN112200300B (zh) 卷积神经网络运算方法及装置
WO2022198636A1 (zh) Ai处理器的内存分配方法、计算机装置及计算机可读存储介质
CN108334408B (zh) 代码执行方法、装置、终端设备及计算机可读存储介质
CN109815406B (zh) 一种数据处理、信息推荐方法及装置
CN110058882B (zh) 一种用于cnn加速的opu指令集定义方法
CN108073687B (zh) 随机游走、基于集群的随机游走方法、装置以及设备
CN109885406B (zh) 算子计算优化方法、装置、设备及存储介质
CN113010312B (zh) 一种超参数调优方法、装置及存储介质
CN108733347B (zh) 一种数据处理方法及装置
CN112766456A (zh) 浮点型深度神经网络的量化方法、装置、设备及存储介质
CN109412865B (zh) 一种虚拟网络资源分配方法、系统及电子设备
CN113743650A (zh) 电力负荷预测方法、装置、设备与存储介质
CN116701001B (zh) 目标任务分配方法、装置、电子设备及存储介质
CN106778812B (zh) 聚类实现方法和装置
CN112200310B (zh) 智能处理器、数据处理方法及存储介质
CN112241289B (zh) 一种文本数据的处理方法和电子设备
CN116957041A (zh) 压缩神经网络模型的方法、装置和计算设备
KR102372869B1 (ko) 인공 신경망을 위한 행렬 연산기 및 행렬 연산 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant