CN117651081A - 一种数据传输方法、装置、设备及存储介质 - Google Patents
一种数据传输方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117651081A CN117651081A CN202311630995.5A CN202311630995A CN117651081A CN 117651081 A CN117651081 A CN 117651081A CN 202311630995 A CN202311630995 A CN 202311630995A CN 117651081 A CN117651081 A CN 117651081A
- Authority
- CN
- China
- Prior art keywords
- matrix
- weight
- bias
- weight matrix
- absolute position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 230000005540 biological transmission Effects 0.000 title claims abstract description 60
- 239000011159 matrix material Substances 0.000 claims abstract description 418
- 238000013139 quantization Methods 0.000 claims abstract description 63
- 238000001514 detection method Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 16
- 238000013144 data compression Methods 0.000 abstract description 3
- 238000007906 compression Methods 0.000 description 13
- 230000006835 compression Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000006854 communication Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种数据传输方法、装置、设备及存储介质,该方法包括:获取联邦学习过程中待传输的模型参数数据,对第一权值矩阵进行稀疏化处理,得到第二权值矩阵,并对第二权值矩阵和第一偏置矩阵中每个权值的绝对位置进行哥伦布编码,得到第一绝对位置矩阵和第二绝对位置矩阵;对第二权值矩阵和第一偏置矩阵进行量化处理,得到第三权值矩阵和第二偏置矩阵;将第三权值矩阵、第二偏置矩阵、第一绝对位置矩阵、第二绝对位置矩阵、第二权值矩阵的形状信息以及第一偏置矩阵的形状信息进行传输。通过本发明实施例的技术方案,以提高数据压缩效果,降低所传输的数据量,使网络传输的带宽满足数据传输的需求,从而降低数据传输延迟,提高联邦学习的效果和性能。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种数据传输方法、装置、设备及存储介质。
背景技术
近年来,联邦学习成为一种新兴的机器学习技术。根据联邦学习的实现原理,边缘节点和中央之间的数据传输在联邦学习过程中是非常频繁且必须的,因此边缘节点和中央之间的数据传输方式也变得越来越重要。
目前,在联邦学习过程中传统的数据传输方式通过结合均匀量化与指数量化,在保证训练效果的情况下减小通信过程中传递的信息量和聚合的轮数。然而,传统的数据传输方式数据压缩效果不佳,往往面临网络带宽不足的问题,从而导致数据传输延迟,影响联邦学习的效果和性能。
发明内容
本发明提供了一种数据传输方法、装置、电子设备及存储介质,以提高数据压缩效果,降低所传输的数据量,使网络传输的带宽满足数据传输的需求,从而降低数据传输延迟,提高联邦学习的效果和性能。
第一方面,本发明实施例提供了一种数据传输方法,包括:
获取联邦学习过程中待传输的模型参数数据,所述模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵;
对所述第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵;
对所述第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对所述第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵;
对所述第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵;
将所述第三权值矩阵、所述第二偏置矩阵、所述第一绝对位置矩阵、所述第二绝对位置矩阵、所述第二权值矩阵的形状信息以及所述第一偏置矩阵的形状信息进行传输。
第二方面,本发明实施例还提供了一种数据传输装置,包括:
模型参数获取模块,用于获取联邦学习过程中待传输的模型参数数据,所述模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵;
第二权值矩阵确定模块,用于对所述第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵;
绝对位置矩阵确定模块,用于对所述第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对所述第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵;
量化处理模块,用于对所述第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵;
传输模块,用于将所述第三权值矩阵、所述第二偏置矩阵、所述第一绝对位置矩阵、所述第二绝对位置矩阵、所述第二权值矩阵的形状信息以及所述第一偏置矩阵的形状信息进行传输。
第三方面,本发明实施例还提供了一种电子设备,其特征在于,所述电子设备包括:至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任意实施例所提供的数据传输方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时能够执行本发明任意实施例所提供的数据传输方法。
本发明实施例的技术方案,通过获取联邦学习过程中待传输的模型参数对应的第一权值矩阵和第一偏置矩阵,并对第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵,从而可以减少待传输的权值数量。对第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵,从而减小了待传输的偏置和权值对应的位置信息的体积。对第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵,从而可以减小需要传输的偏置和权值的体积。将第三权值矩阵、所述第二偏置矩阵、所述第一绝对位置矩阵、所述第二绝对位置矩阵、所述第二权值矩阵的形状信息以及所述第一偏置矩阵的形状信息进行传输,从而通过权值稀疏化、哥伦布编码和量化实现对待传输模型参数的全方位压缩,极大提高了待传输模型参数数据的压缩效果,使网络传输的带宽满足数据传输的需求,从而降低数据传输延迟,提高联邦学习的效果和性能。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种数据传输方法的流程图;
图2是根据本发明实施例一所涉及的一种稀疏化处理的流程图;
图3是根据本发明实施例一所涉及的一种哥伦布编码的流程图;
图4是根据本发明实施例一所涉及的一种量化流程图;
图5是根据本发明实施例一所涉及的一种数据传输的流程图;
图6是根据本发明实施例二提供的一种数据传输方法的流程图;
图7是根据本发明实施例三提供的一种数据传输装置的结构示意图;
图8是实现本发明实施例的数据传输方法的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“目标”、“当前”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供了一种数据传输方法的流程图,本实施例可适用于对联邦学习过程中边缘节点和中央之间进行数据传输的情况。如图1所示,该方法可以由数据传输装置来执行,该数据传输装置可以采用硬件和/或软件的形式实现,该数据传输装置可配置于电子设备中。如图1所示,该方法具体包括以下步骤:
S110、获取联邦学习过程中待传输的模型参数数据,模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵。
其中,联邦学习可以是指一种机器学习模型,用于在多参与方或多计算结点之间开展高效率的机器学习。第一权值矩阵可以是指模型权值层对应的权值矩阵。第一权值矩阵和权值层是一一对应关系,每一个权值层对应一个第一权值矩阵。第一偏置矩阵可以是指模型偏置层对应的偏置矩阵,第一偏置矩阵和偏置层是一一对应关系,每一个偏置层对应一个第一偏置矩阵。
具体的,基于联邦学习模型,确定联邦学习模型中各层神经网络对应的权值层和偏置层。根据各层神经网络对应的权值层和偏置层确定对应的权值矩阵和偏置矩阵,并将模型权值层和偏置层对应的权值矩阵和偏置矩阵确定为第一权值矩阵和第一偏置矩阵。基于第一权值矩阵和第一偏置矩阵,将第一权值矩阵和第一偏置矩阵确定为联邦学习过程中待传输的模型参数数据,从而可以为模型参数的压缩提供依据。
S120、对第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵。
其中,第二权值矩阵可以是指将第一权值矩阵进行权值稀疏化得到的矩阵。
具体的,基于第一权值矩阵,确定第一权值矩阵中模型参数占比较小的模型参数对应的权值。基于第一权值矩阵中模型参数占比较小的模型参数对应的权值,对第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵,从而降低模型的复杂度,提高模型的泛化能力,并减少模型的计算量和存储空间。
示例性的,如图2所示,模型权值偏置矩阵是指第一权值矩阵和第一偏置矩阵。若模型权值偏置矩阵为权值矩阵,则对权值矩阵进行稀疏化,确定稀疏化后的权值矩阵及对应的绝对位置和形状并保存。若模型权值偏置矩阵为偏置矩阵,则确定偏置矩阵及对应的绝对位置和形状并保存。
S130、对第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵。
其中,绝对位置可以是指矩阵元素在矩阵中的位置。哥伦布编码可以是指一种无损压缩方式,可以很好将原数据进行压缩,并在接受端将压缩后的数据无差错的还原出来。每个权值的绝对位置可以是指每个权值在第二权值矩阵中的位置。每个偏置的绝对位置可以是指每个偏置在第一偏置矩阵中的位置。第一绝对位置矩阵可以是按照第二权值矩阵的维度,由所有权值的绝对位置构成的。第二绝对位置矩阵可以是按照第一偏置矩阵的维度,由所有偏置的绝对位置构成的。
具体的,基于第二权值矩阵,确定第二权值矩阵中各个权值对应的绝对位置。基于第二权值矩阵中各个权值对应的绝对位置,对第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵。基于第一偏置矩阵,确定第一偏置矩阵中各个偏置对应的绝对位置。基于第一偏置矩阵中各个偏置对应的绝对位置,对第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵,从而减小了待传输的偏置和权值对应的位置信息的体积,实现对模型参数数据的无损压缩。
示例性的,哥伦布编码过程如图3所示,获取权值矩阵和偏置矩阵对应的权值和偏置的绝对位置,使用可调参数对权值和偏置的绝对位置进行分组,得到组数q和分组后剩余部分r。对q进行一元编码,对r进行二进制编码,并将编码后的值组成一个比特序列并保存。
S140、对第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵。
其中,第三权值矩阵可以是指对第二权值矩阵进行量化处理后的矩阵。第二偏置矩阵可以是指对第一偏置矩阵进行量化处理后的矩阵。
具体的,基于第二权值矩阵,对第二权值矩阵中的各个权值进行量化处理,获得量化后的第三权值矩阵。基于第一偏置矩阵,对第一偏置矩阵中的各个偏置进行量化处理,获得量化后的第二偏置矩阵。通过对第二权值矩阵和第一偏置矩阵进行量化处理,可以使矩阵在保持模型精度和性能的同时减少权值矩阵和偏置矩阵中的数值范围和精度,从而降低模型的复杂度和计算量。
示例性的,S140包括:对第二权值矩阵进行线性量化处理,获得量化后的第三权值矩阵,并对第一偏置矩阵进行线性量化处理,获得量化后的第二偏置矩阵。
具体的,基于第二权值矩阵,对第二权值矩阵中的各个权值进行线性变换,获得线性量化后的第三权值矩阵。基于第一偏置矩阵,对第一偏置矩阵中的各个偏置进行线性变换,获得线性量化后的第二偏置矩阵。通过对第二权值矩阵和第一偏置矩阵进行线性量化处理,可以使矩阵在保持模型精度和性能的同时减少权值矩阵和偏置矩阵中的数值范围和精度,从而降低模型的复杂度和计算量。
示例性的,对第二权值矩阵进行线性量化处理,获得量化后的第三权值矩阵,包括:确定第二权值矩阵中的最大正数值、最小正数值、最大负数值和最小负数值;检测第二权值矩阵中的每个权值是正数还是负数;基于检测结果、最大正数值、最小正数值、最大负数值和最小负数值进行线性量化,获得量化后的权值。
其中,最大正数值可以是指第二权值矩阵中各个矩阵元素中正数的最大值。最小正数值可以是指第二权值矩阵中各个矩阵元素中正数的最小值。最大负数值可以是指第二权值矩阵中各个矩阵元素中负数的最大值。最小负数值可以是指第二权值矩阵中各个矩阵元素中负数的最小值。
具体的,基于第二权值矩阵中的各个权值元素,确定第二权值矩阵中各个矩阵元素的最大正数值、最小正数值、最大负数值和最小负数值。检测第二权值矩阵中的每个权值是正数还是负数,并基于检测结果、最大正数值、最小正数值、最大负数值和最小负数值进行线性量化,获得量化后的权值,可以使矩阵在保持模型精度和性能的同时减少权值矩阵中的数值范围和精度,从而降低模型的复杂度和计算量。示例性的,如图4所示,根据第二权值矩阵,确定第二权值矩阵中各个矩阵元素的最大正数值Pmax、最小正数值Pmin、最大负数值Nmax、最小负数值Nmin。若第二权值矩阵中的当前权值X是正数,则基于当前权值与Pmin之间的差值以及Pmax与Pmin之间的差值,将(X-Pmin)/(Pmax-Pmin)+127确定为当前权值量化后的权值,其中,常数127是指量化步长。若二权值矩阵中的当前权值X是负数,则基于当前权值与Nmin之间的差值以及Nmax与Nmin之间的差值,将(X-Nmin)/(Nmax-Pmin)确定为当前权值量化后的权值。
示例性的,对第一偏置矩阵进行线性量化处理,获得量化后的第二偏置矩阵,包括:确定第一偏置矩阵中的最大正数值、最小正数值、最大负数值和最小负数值;检测第一偏置矩阵中的每个权值是正数还是负数;基于检测结果、最大正数值、最小正数值、最大负数值和最小负数值进行线性量化,获得量化后的第二偏置矩阵。
需要说明的是,第一偏置矩阵的线性量化过程与第二权值矩阵的线性量化过程完全相同,可以参照上述描述,此处不再赘述。
S150、将第三权值矩阵、第二偏置矩阵、第一绝对位置矩阵、第二绝对位置矩阵、第二权值矩阵的形状信息以及第二偏置矩阵的形状信息进行传输。
其中,形状信息可以是指矩阵的维度信息。
具体的,将第三权值矩阵、第二偏置矩阵、第一绝对位置矩阵、第二绝对位置矩阵、第二权值矩阵的形状信息以及第二偏置矩阵的形状信息进行传输,从而实现对待传输模型参数的全方位压缩,极大提高了待传输模型参数数据的压缩效果,使网络传输的带宽满足数据传输的需求。
本发明实施例的技术方案,通过获取联邦学习过程中待传输的模型参数对应的第一权值矩阵和第一偏置矩阵,并对第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵,从而可以减少待传输的权值数量。对第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵,从而减小了待传输的偏置和权值对应的位置信息的体积。对第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵,从而可以减小需要传输的偏置和权值的体积。将第三权值矩阵、第二偏置矩阵、第一绝对位置矩阵、第二绝对位置矩阵、第二权值矩阵的形状信息以及第一偏置矩阵的形状信息进行传输,从而通过权值稀疏化、哥伦布编码和量化实现对待传输模型参数的全方位压缩,极大提高了待传输模型参数数据的压缩效果,使网络传输的带宽满足数据传输的需求,从而降低数据传输延迟,提高联邦学习的效果和性能。
在上述技术方案的基础上,该方法可以应用于联邦学习中的边缘节点,步骤S110可以包括:获取边缘节点中待传输的第一模型参数数据,第一模型参数数据包括:边缘节点对模型进行训练后获得的第一权值矩阵和第一偏置矩阵。
具体的,如图5所示,边缘节点接收中央服务器下发的参数并还原出矩阵模型,进行模型训练后提取训练模型的第一权值矩阵和第一偏置矩阵,将其作为待传输的第一模型参数数据,可以为模型参数的压缩提供依据。
在上述技术方案的基础上,该方法可以应用于联邦学习中的中央服务器,步骤S110可以包括:获取中央服务器中待传输的第二模型参数数据,第二模型参数数据包括:中央服务器对所有边缘节点中的模型参数数据进行聚合后获得的第一权值矩阵和第一偏置矩阵。
具体的,如图5所示,中央服务器接收边缘节点传输的经过哥伦布编码、权值稀疏化和量化后的第一模型参数数据,并还原出所有边缘节点中的模型参数数据,对还原出的模型参数数据进行聚合得到第一权值矩阵和第一偏置矩阵,从而保证数据的完整性,降低数据传输延迟。
实施例二
图6为本发明实施例二提供的一种数据传输方法的流程图,本实施例在上述各实施例的基础上,对步骤“对第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵”进行优化。其中与上述各实施例相同或相应的术语的解释在此不再赘述。
参见图6,本实施例提供的另一种数据传输方法具体包括以下步骤:
S210、获取联邦学习过程中待传输的模型参数数据,模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵。
S220、对第一权值矩阵中的所有权重进行降序排列,获得权值序列。
具体的,基于第一权值矩阵,确定矩阵中各个权值元素对应的模型参数权重,并对第一权值矩阵中的权值元素按照权重进行降序排列,获得权值序列。
S230、基于预设稀疏化比例和权值序列,确定待删除的目标权值。
其中,预设稀疏化比例可以是指稀疏化时第一权值矩阵中需要去除的权值占总权值数的比例。
具体的,基于预设稀疏化比例和权值序列,将第一权值矩阵中权值元素对应的模型参数权重最小的预设稀疏化比例的权值元素确定为待删除的目标权值。通过删除一部分权值较小的权值,可以减少模型的参数数量和计算复杂度。
示例性的,设置预设稀疏化比例S为0.2,权值序列从大到小进行排序,则将权值序列的最后的20%确定为待删除的目标权值。
示例性的,S230包括:基于预设稀疏化比例和第一权值矩阵对应的权值数量,确定稀疏化数量;将权值序列中前稀疏化数量的权值确定为待删除的目标权值。
具体的,基于预设稀疏化比例和第一权值矩阵对应的权值数量,将第一权值矩阵对应的权值数量中预设稀疏化比例的权值数量确定为稀疏化数量。基于稀疏化数量,将从小到大排列的权值序列中前稀疏化数量的权值确定为待删除的目标权值。
S240、将第一权值矩阵中的目标权值进行删除,获得删除后的第二权值矩阵。
具体的,将第一权值矩阵中的目标权值进行删除,将删除目标权值后的第一权值矩阵确定为第二权值矩阵,从而实现对待传输模型参数的压缩
S250、对第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵。
S260、对第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵。
S270、将第三权值矩阵、第二偏置矩阵、第一绝对位置矩阵、第二绝对位置矩阵、第二权值矩阵的形状信息以及第一偏置矩阵的形状信息进行传输。
本发明实施例的技术方案,通过对第一权值矩阵中的权重进行降序排列,获得权值序列。基于预设稀疏化比例和权值序列,确定待删除的目标权值,并将第一权值矩阵中的目标权值进行删除,获得删除后的第二权值矩阵,从而实现了权值的稀疏化准确处理,减少了要传输的权重数量,提高了模型参数数据的压缩效果,使网络传输的带宽满足数据传输的需求,进而降低数据传输延迟,提高联邦学习的效果和性能。
实施例三
图7为本发明实施例三提供的一种数据传输装置的结构示意图。如图7所示,该装置包括:模型参数获取模块310、第二权值矩阵确定模块320、绝对位置矩阵确定模块330、量化处理模块340和传输模块350。
其中,模型参数获取模块310,用于获取联邦学习过程中待传输的模型参数数据,所述模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵;
第二权值矩阵确定模块320,用于对所述第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵;
绝对位置矩阵确定模块330,用于对所述第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对所述第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵;
量化处理模块340,用于对所述第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵;
传输模块350,用于将所述第三权值矩阵、所述第二偏置矩阵、所述第一绝对位置矩阵、所述第二绝对位置矩阵、所述第二权值矩阵的形状信息以及所述第一偏置矩阵的形状信息进行传输。
本实施例的技术方案,通过获取联邦学习过程中待传输的模型参数对应的第一权值矩阵和第一偏置矩阵,可以为模型参数的压缩提供依据。对第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵,通过减少待传输的权值的数量,从而实现对待传输模型参数的压缩。对第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵,从而减小了待传输的偏置和权值对应的位置信息的体积,实现对待传输模型参数的压缩。对第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵,减小需要传输的偏置和权值的体积,从而实现对待传输的模型参数进行压缩。将第三权值矩阵、所述第二偏置矩阵、所述第一绝对位置矩阵、所述第二绝对位置矩阵、所述第二权值矩阵的形状信息以及所述第一偏置矩阵的形状信息进行传输,从而通过权值稀疏化、哥伦布编码和量化实现对待传输模型参数的全方位压缩,极大提高了待传输模型参数数据的压缩效果,使网络传输的带宽满足数据传输的需求,从而降低数据传输延迟,提高联邦学习的效果和性能。
可选地,第二权值矩阵确定模块320,包括:
权值序列确定单元,用于对所述第一权值矩阵中的所有权重进行降序排列,获得权值序列;
目标权值确定单元,用于基于预设稀疏化比例和所述权值序列,确定待删除的目标权值;
第二权值矩阵确定单元,用于将所述第一权值矩阵中的所述目标权值进行删除,获得删除后的第二权值矩阵。
可选地,目标权值确定单元,具体用于:基于预设稀疏化比例和所述第一权值矩阵对应的权值数量,确定稀疏化数量;将所述权值序列中前所述稀疏化数量的权值确定为待删除的目标权值。
可选地,量化处理模块340,具体用于:对所述第二权值矩阵进行线性量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行线性量化处理,获得量化后的第二偏置矩阵。
可选地,量化处理模块340,具体用于:确定所述第二权值矩阵中的最大正数值、最小正数值、最大负数值和最小负数值;检测所述第二权值矩阵中的每个权值是正数还是负数;基于检测结果、所述最大正数值、所述最小正数值、所述最大负数值和所述最小负数值进行线性量化,获得量化后的权值。
可选地,上述装置集成于联邦学习中的边缘节点,所述模型参数获取模块310,具体用于:获取边缘节点中待传输的第一模型参数数据,所述第一模型参数数据包括:边缘节点对模型进行训练后获得的第一权值矩阵和第一偏置矩阵。
可选地,上述装置集成于联邦学习中的中央服务器,所述模型参数获取模块310,具体用于:获取中央服务器中待传输的第二模型参数数据,所述第二模型参数数据包括:所述中央服务器对所有边缘节点中的模型参数数据进行聚合后获得的第一权值矩阵和第一偏置矩阵。
本发明实施例所提供的数据传输装置可执行本发明任意实施例所提供的数据传输方法,具备执行方法相应的功能模块和有益效果。
图8示出了可以用来实施本发明的实施例的电子设备12的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,台式计算机、工作台、服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图8所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图8未显示,通常称为“硬盘驱动器”)。尽管图8中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发实施例所提供的一种数据传输方法步骤,该方法包括:
获取联邦学习过程中待传输的模型参数数据,所述模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵;
对所述第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵;
对所述第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对所述第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵;
对所述第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵;
将所述第三权值矩阵、所述第二偏置矩阵、所述第一绝对位置矩阵、所述第二绝对位置矩阵、所述第二权值矩阵的形状信息以及所述第一偏置矩阵的形状信息进行传输。
当然,本领域技术人员可以理解,处理器还可以实现本发明任意实施例所提供的数据传输方法的技术方案。
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例所提供的数据传输方法步骤,该方法包括:
获取联邦学习过程中待传输的模型参数数据,所述模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵;
对所述第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵;
对所述第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对所述第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵;
对所述第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵;
将所述第三权值矩阵、所述第二偏置矩阵、所述第一绝对位置矩阵、所述第二绝对位置矩阵、所述第二权值矩阵的形状信息以及所述第一偏置矩阵的形状信息进行传输。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于:电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本领域普通技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个计算装置上,或者分布在多个计算装置所组成的网络上,可选地,他们可以用计算机装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件的结合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种数据传输方法,其特征在于,包括:
获取联邦学习过程中待传输的模型参数数据,所述模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵;
对所述第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵;
对所述第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对所述第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵;
对所述第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵;
将所述第三权值矩阵、所述第二偏置矩阵、所述第一绝对位置矩阵、所述第二绝对位置矩阵、所述第二权值矩阵的形状信息以及所述第一偏置矩阵的形状信息进行传输。
2.根据权利要求1所述的方法,其特征在于,对所述第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵,包括:
对所述第一权值矩阵中的所有权重进行降序排列,获得权值序列;
基于预设稀疏化比例和所述权值序列,确定待删除的目标权值;
将所述第一权值矩阵中的所述目标权值进行删除,获得删除后的第二权值矩阵。
3.根据权利要求2所述的方法,其特征在于,基于预设稀疏化比例和所述权值序列,确定待删除的目标权值,包括:
基于预设稀疏化比例和所述第一权值矩阵对应的权值数量,确定稀疏化数量;
将所述权值序列中前所述稀疏化数量的权值确定为待删除的目标权值。
4.根据权利要求1所述的方法,其特征在于,对所述第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵,包括:
对所述第二权值矩阵进行线性量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行线性量化处理,获得量化后的第二偏置矩阵。
5.根据权利要求4所述的方法,其特征在于,对所述第二权值矩阵进行线性量化处理,获得量化后的第三权值矩阵,包括:
确定所述第二权值矩阵中的最大正数值、最小正数值、最大负数值和最小负数值;
检测所述第二权值矩阵中的每个权值是正数还是负数;
基于检测结果、所述最大正数值、所述最小正数值、所述最大负数值和所述最小负数值进行线性量化,获得量化后的权值。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述方法应用于联邦学习中的边缘节点;
所述获取联邦学习过程中待传输的模型参数数据,所述模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵,包括:
获取边缘节点中待传输的第一模型参数数据,所述第一模型参数数据包括:边缘节点对模型进行训练后获得的第一权值矩阵和第一偏置矩阵。
7.根据权利要求1-5任一项所述的方法,其特征在于,所述方法应用于联邦学习中的中央服务器;
所述获取联邦学习过程中待传输的模型参数数据,所述模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵,包括:
获取中央服务器中待传输的第二模型参数数据,所述第二模型参数数据包括:所述中央服务器对所有边缘节点中的模型参数数据进行聚合后获得的第一权值矩阵和第一偏置矩阵。
8.一种数据传输装置,其特征在于,包括:
模型参数获取模块,用于获取联邦学习过程中待传输的模型参数数据,所述模型参数数据包括:模型的第一权值矩阵和第一偏置矩阵;
第二权值矩阵确定模块,用于对所述第一权值矩阵进行稀疏化处理,获得稀疏化后的第二权值矩阵;
绝对位置矩阵确定模块,用于对所述第二权值矩阵中每个权值的绝对位置进行哥伦布编码,获得编码后的第一绝对位置矩阵,并对所述第一偏置矩阵中每个偏置的绝对位置进行哥伦布编码,获得编码后的第二绝对位置矩阵;
量化处理模块,用于对所述第二权值矩阵进行量化处理,获得量化后的第三权值矩阵,并对所述第一偏置矩阵进行量化处理,获得量化后的第二偏置矩阵;
传输模块,用于将所述第三权值矩阵、所述第二偏置矩阵、所述第一绝对位置矩阵、所述第二绝对位置矩阵、所述第二权值矩阵的形状信息以及所述第一偏置矩阵的形状信息进行传输。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的数据传输方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-7中任一项所述的数据传输方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311630995.5A CN117651081A (zh) | 2023-11-30 | 2023-11-30 | 一种数据传输方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311630995.5A CN117651081A (zh) | 2023-11-30 | 2023-11-30 | 一种数据传输方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117651081A true CN117651081A (zh) | 2024-03-05 |
Family
ID=90042853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311630995.5A Pending CN117651081A (zh) | 2023-11-30 | 2023-11-30 | 一种数据传输方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117651081A (zh) |
-
2023
- 2023-11-30 CN CN202311630995.5A patent/CN117651081A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109600618B (zh) | 视频压缩方法、解压缩方法、装置、终端和介质 | |
CN106549673B (zh) | 一种数据压缩方法及装置 | |
WO2020237647A1 (zh) | 点云数据的编码方法、编码装置、解码方法与解码装置 | |
CN110175641B (zh) | 图像识别方法、装置、设备和存储介质 | |
CN108628898B (zh) | 数据入库的方法、装置和设备 | |
CN110019865B (zh) | 海量图片处理方法、装置、电子设备及存储介质 | |
CN113327599B (zh) | 语音识别方法、装置、介质及电子设备 | |
CN115567589B (zh) | Json数据的压缩传输方法、装置、设备及存储介质 | |
CN110874625A (zh) | 一种深度神经网络量化方法及装置 | |
CN114692085A (zh) | 特征提取方法、装置、存储介质及电子设备 | |
CN111610938B (zh) | 分布式数据编码存储方法、电子设备和计算机可读存储介质 | |
CN112181307A (zh) | 基于区块链的分布式数据冗余存储方法和电子设备 | |
CN110135465B (zh) | 模型参数表示空间大小估计方法及装置、推荐方法 | |
CN111915689A (zh) | 用于生成目标函数的方法、装置、电子设备和计算机可读介质 | |
CN117651081A (zh) | 一种数据传输方法、装置、设备及存储介质 | |
WO2015038154A1 (en) | Grouping and compressing similar photos | |
CN107612554B (zh) | 数据压缩处理方法 | |
WO2023159820A1 (zh) | 图像压缩方法、图像解压缩方法及装置 | |
CN116033034A (zh) | 一种无线收发平台用数据处理系统 | |
CN113315793B (zh) | 基于智能压缩的数据传输方法、装置、设备及介质 | |
CN112054805B (zh) | 一种模型数据压缩方法、系统及相关设备 | |
JP2024503032A (ja) | オーディオコーディング方法とデコーディング方法、オーディオコーディング装置とデコーディング装置 | |
CN110751274A (zh) | 一种基于随机投影哈希的神经网络压缩方法及系统 | |
CN113141508A (zh) | 算术编码器及实现算术编码的方法和图像编码方法 | |
CN110782003A (zh) | 一种基于哈希学习的神经网络压缩方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |