CN111275200A - 一种适用于区块链工作量证明的多边缘服务器缓存算法 - Google Patents

一种适用于区块链工作量证明的多边缘服务器缓存算法 Download PDF

Info

Publication number
CN111275200A
CN111275200A CN202010062160.4A CN202010062160A CN111275200A CN 111275200 A CN111275200 A CN 111275200A CN 202010062160 A CN202010062160 A CN 202010062160A CN 111275200 A CN111275200 A CN 111275200A
Authority
CN
China
Prior art keywords
neural network
network model
data
training
combination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010062160.4A
Other languages
English (en)
Inventor
徐精忠
陆凯宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Encryption Matrix Technology Co Ltd
Original Assignee
Hangzhou Encryption Matrix Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Encryption Matrix Technology Co Ltd filed Critical Hangzhou Encryption Matrix Technology Co Ltd
Priority to CN202010062160.4A priority Critical patent/CN111275200A/zh
Publication of CN111275200A publication Critical patent/CN111275200A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • G06N5/013Automatic theorem proving
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种适用于区块链工作量证明的多边缘服务器缓存算法,包括以下步骤:S1:上传用户终端的区块链工作量证明的计算任务并进行计算,采用深度学习算法获取用于训练神经网络的数据集;S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新的神经网络模型。本发明的有益效果为:本发明提供的方法在用户终端能够减少本地计算能量损耗,同时还能够解决由信道增益造成任务传输的时延,在面对新任务时,可以快速适应,在保证获利的情况下最小化任务执行总时间从而最大化系统的总收益。

Description

一种适用于区块链工作量证明的多边缘服务器缓存算法
技术领域
本发明涉及无线通信领域,具体涉及一种适用于区块链工作量证明的多边缘服务器缓存算法。
背景技术
区块链技术建立分布式信任的能力已被广泛应用于各个领域,但区块链工作量证明任务受限于用户终端的计算算力和存储容量,随着边缘计算技术的发展,目前可以通过边缘计算技术解决算力和存储有限的问题。
针对多个用户终端和多个边缘服务器在多种区块链应用下的动态工作量证明需求,当计算任务被分流到边缘服务器时,对于每一个计算任务,执行总时间有一个规定的阈值,若超过这个时间则计算任务不能够获得收益,因此要保证在不同的信道增益下做出合理的缓存决策,尽可能的缩短计算任务执行的总时间且尽可能的小,使得最终获得的收益最高。这个过程需要考虑边缘服务器缓存任务所需哈希表带来的收益以及代价对最终执行任务后的总收益的影响。
用户终端可以减少自己的能耗,但由于传输任务通过无线信道传输,需要一定的时间,因此会造成传输时延,当信道增益改变时,需要边缘服务器还能够做出合理的缓存决策仍能使总体时间不超过计算任务规定的时间,使得计算任务有最大概率能获得收益,因此本发明提供了最优的边缘服务器对于工作量证明的计算任务需要的哈希表的缓存决策方法。
发明内容
本发明提供了一种适用于区块链工作量证明的多边缘服务器缓存算法,针对多个用户终端和多个边缘服务器在多种区块链应用下的动态工作量证明需求,能够在减少用户本地计算能量损耗的同时,保证工作量证明的计算任务能够获利,并减少计算任务的总时间。
本发明的技术方案如下所示:1、一种适用于区块链工作量证明的多边缘服务器缓存算法,包括以下步骤:
S1:上传用户终端的区块链工作量证明的计算任务并进行计算,采用深度学习算法获取用于训练神经网络的数据集;
S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;
S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新的神经网络模型;
步骤S1中所述的数据集包含区块链系统中用户工作量证明需求的不同组合,并以i,(i∈{1,2,…,I})代表不同组合;步骤S1中所述的获取数据集的具体步骤为:
S1.1:预先设置I个计算任务组合,每个组合包含N个区块链移动终端用户以及用户对应的工作量证明计算任务;
S1.2:对每个组合i(i∈I),采集F组信道增益{h1,h2,…,hN}f,f∈F;
S1.3:对每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策;
S1.4:给定某个组合i和某一组信道增益f,对每一个缓存决策,求解优化问题TMP,得到该决策对应的最大的代币收益值;
S1.5:给定某个组合i和某一组信道增益f,基于步骤S1.4中优化问题TMP计算所得代币收益值,遍历所有M*2N种二进制缓存决策,获取代币收益值的最大值,并记录最大代币收益值对应的缓存决策和信道增益(hf,sf)i
S1.6:给定某个组合i,对所有F组信道增益,重复步骤S1.5,保存组合i下的F组的数据(hf,sf),f∈{1,2,…,F},i∈{1,2,…,I};
S1.7对于所有I个组合,重复步骤S1.6,生成每个组合的F组的数据(hff)i,f∈{1,2,…,F},i∈{1,2,…,I},保存并记录整个数为DataI,作为神经网络的训练数据据集;
步骤S1.2中所述的最大的代币收益值的计算方法为:以s(n)表示用户xn的缓存决策,如果s(n)为1,则表示边缘服务器AP缓存xn需要的哈希表,如果为0则表示边缘服务器不缓存哈希表,最大的代币收益值的计算方法为:
Figure BDA0002374838310000031
优选的,步骤S1.5中所述信道增益(hf,sf)i中h和s各含N条数据,对应了N位用户。
优选的,所述最大的代币收益值的计算过程中的约束条件为:
Figure BDA0002374838310000032
Figure BDA0002374838310000033
Figure BDA0002374838310000034
优选的,步骤S2中所述的神经网络模型的训练方法为:
S2.1:建立结构相同的通用神经网络模型和局部神经网络模型,初始参数分别设置为θ0和θ1,学习率分别设定为λ和γ;
S2.2:从步骤S1训练好的数据集中,抽取一批包含Nc种组合的数据,记为数据集Databatch
S2.3:将数据集Databatch中每个组合记为
Figure BDA0002374838310000035
S2.4:将通用神经网络模型的参数复制到局部神经网络模型中,即令θ1=θ0;在组合
Figure BDA0002374838310000036
下,抽取K条(h,s)数据,将信道增益h输入局部神经网络模型,并以对应的最优决策s为标签,训练局部神经网络模型;
S2.5:以均方误差为损失函数,计算每一组合
Figure BDA0002374838310000037
下的误差值
Figure BDA0002374838310000038
更新局部神经网络参数,并记为
Figure BDA0002374838310000039
S2.6:从组合i中再重新抽取K条(h,s)数据,以计算局部神经网络模型在参数
Figure BDA00023748383100000310
下的损失值
Figure BDA00023748383100000311
并保存;若未将数据集Databatch中每一组合的数据进行一次神经网络的训练,则返回步骤2.4;若数据集Databatch中不同组合数据均已被使用,则执行步骤S2.7;
S2.7:累加所有的损失值
Figure BDA0002374838310000041
并更新通用神经网络模型的参数;
S2.8:利用步骤S1中的数据集完成更新后,判断数据集中的训练数据是否全部被使用;若是,则完成训练,并获得多次更新后的通用神经网络模型和其参数;反之,则返回步骤S2.2再重新抽取Nc种组合组成新的数据集Databatch进行训练。
优选的,步骤S2.5中所述的更新后的局部神经网络参数
Figure BDA0002374838310000042
的计算公式为
Figure BDA0002374838310000043
优选的,步骤S2.7中所述的更新后的通用神经网络模型的参数计算公式为:
Figure BDA0002374838310000044
优选的,步骤S3中所述的优化训练生成新的神经网络模芯的具体步骤为:
S3.1:新建立一个与通用神经网络模型的架构相同的神经网络模型,记其参数为θ2,将学习率设定为χ;
S3.2:将训练好的通用神经网络模型参数复制到步骤S3.1中新的神经网络模型,即令θ2=θ0
S3.3:在新的神经网络模型的计算任务组合下,采集G组信道增益;
S3.4:基于步骤S3.3中的计算任务组合和信道增益数据,执行步骤S1.5,求出G组信道条件下对应的最佳缓存决策,以组成训练神经网络模型适应新组合问题的数据集;
S3.5:从步骤S3.4获得的新组合数据集中,随机抽取K条(h,s)数据,将信道增益h输入神经网络模型,以对应的最优决策s为标签,进行梯度下降操作,微调模型参数θ2
S3.6:将神经网络模型预测出来的分流策略与遍历法找到的最优决策进行对比;若误差值小于等于1%,则执行步骤S3.7;反之,则返回步骤S3.5;
S3.7:针对新计算任务组合的优化过程结束,获得新神经网络模型。
更优选的,所述参数θ2的调整公式为:
Figure BDA0002374838310000051
本发明的有益效果为:本发明提供的方法针对多个用户终端和多个边缘服务器在多种区块链应用下的动态工作量证明需求,在用户终端能够减少本地计算能量损耗,同时还能够解决由信道增益造成任务传输的时延,通过深度学习寻找出边缘服务器最优的缓存决策方法,在面对新任务时,可以快速适应,在保证获利的情况下最小化任务执行总时间从而最大化系统的总收益;当区块链系统中用户的工作量证明计算任务组合发生变化时,能以极少的训练步数和训练数据做到快速适应。
附图说明
图1是多个用户终端多个边缘服务器和单个远程服务器和组合下的哈希表缓存决策框架示意图。
具体实施方式
下面结合附图对本发明作进一步详细描述。
本发明与移动边缘计算技术相结合,如图1所示,提供一种适用于区块链工作量证明的多边缘服务器缓存算法,包括以下步骤:在区块链与移动边缘计算结合的智能系统中,将用户终端的区块链工作量证明的计算任务上传到边缘服务器并进行计算,采用深度学习算法决定边缘服务器是否缓存计算后的区块链哈希表。首先,获取用于训练神经网络的数据集,包含区块链系统中用户工作量证明需求的不同组合,以i,(i∈{1,2,…,I})代表不同组合。本发明针对含N个用户单个边缘服务器和单个远程服务器的区块链系统,且在用户需求组合可变的情况下,研究快速适应新需求组合的深度学习算法,实现计算任务中边缘服务器的高效智能缓存。获取训练数据的具体步骤如下:
步骤1.1:预先设置I个计算任务组合,每个组合包含N个区块链移动终端用户以及用户对应的工作量证明计算任务。
步骤1.2:对于每个组合i(i∈I),采集F组信道增益{h1,h2,…,hN}f,f∈F。
步骤1.3:对于每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策。
步骤1.4:给定某个组合i和某一组信道增益f,对应一组二进制的缓存决策,求解优化问题(TMP),得到该决策对应的最大化代币收益值。用s(nm)表示用户
Figure BDA0002374838310000061
的缓存决策,如果s(nm)为1则表示边缘服务器APm缓存
Figure BDA0002374838310000062
需要的哈希表,如果s(nm)为0则表示边缘服务器APm不缓存哈希表,其中优化问题(TMP)如下:
Figure BDA0002374838310000063
其中,各参数定义如下:
ζ(nm):代币收益;
Figure BDA0002374838310000069
缓存决策回报;
Z:缓存决策代价;
Figure BDA00023748383100000610
单位能耗对应的代币消耗;
E(nm):边缘服务器m处理计算任务时消耗的能量;
上述计算过程约束条件为:
Figure BDA0002374838310000064
Figure BDA0002374838310000065
Figure BDA0002374838310000066
式中:
Figure BDA0002374838310000067
T0(nm)=Tup+Tpro
T1(nm)=(1-p)(Tup+Tpro+Tm,n)+p(Tup+Tpro)
Figure BDA0002374838310000068
Figure BDA0002374838310000071
Figure BDA0002374838310000072
变量:h={hn},s={sn},n∈N
其中,各参数定义如下:
cm,n:哈希表的大小;
T0(nm):缓存决策下的时间消耗;
T1(nm):不缓存决策下的时间消耗;
Tup:计算任务通过无线信道传输时间;
Tpro:计算任务在边缘服务器上计算消耗时间;
E(n):用户n边缘服务器处理其计算任务需要消耗的能量;
Z:一组用户终端作出缓存决策时所需的代币消耗;
σ2:噪声功率;
α:路径损耗指数;
Rn,m:用户n和边缘服务器APm之间的传输速率;
Dn,m:用户终端
Figure BDA0002374838310000073
所要工作量证明的计算任务的大小;
Xm,n:用户
Figure BDA0002374838310000074
处理其任务需要的CPU周期数与任务大小的比率;
T:所有用户终端的任务被执行完所需时间的最大阈值;
p:对于用户终端
Figure BDA0002374838310000075
在除了第m个边缘服务器外其他边缘服务器缓存了需要的哈希表的概率;
rm,n:用户终端
Figure BDA0002374838310000076
与边缘服务器APm的距离;
hm,n:用户终端
Figure BDA0002374838310000077
与边缘服务器APm之间的信道增益;
Pn:用户终端的发射功率;
B:传输带宽;
Nm:用户终端数量;
M:边缘服务器数量;
Figure BDA0002374838310000081
用户终端
Figure BDA0002374838310000082
的工作量证明的计算任务A<m,n>的缓存决策,为1时表示边缘服务器缓存哈希表,为0时表示用户终端
Figure BDA0002374838310000083
从远程服务器下载哈希表;
Figure BDA0002374838310000084
缓存内容请求率;
Figure BDA0002374838310000085
缓存内容;
Figure BDA0002374838310000086
边缘服务器APm的计算能力;
O:缓存代价;
Tm,n:对于用户终端
Figure BDA0002374838310000087
请求边缘服务器APm缓存哈希表所耗的时间。
步骤1.5:给定某个组合i和某一组信道增益f,基于步骤1.4中优化问题(TMP)计算所得代币收益值,遍历所有M*2N种二进制缓存决策,找到收益值的最大值,并记录最大收益值对应的缓存决策和信道增益(hf,sf)i,其中h和s各含N条数据,对应N位用户。
步骤1.6:给定某个组合i,对所有F组信道增益,重复步骤1.5,保存组合i下的F组数据(hf,sf),f∈{1,2,…,F},i∈{1,2,…,I}。
步骤1.7:对于所有I个组合,重复步骤S1.6,生成每个组合的F组的数据(hff)i,f∈{1,2,…,F},i∈{1,2,…,I},保存并记录整个数为DataI,作为神经网络的训练数据据集。
(2)以步骤(1)中生成的数据为标签,训练一个神经网络模型。在训练阶段,让神经网络模型遍历不同组合下的训练数据,以此更新网络参数。具体的训练步骤如下:
步骤2.1:建立一个通用神经网络模型和局部神经网络模型,两个模型结构相同且初始参数为θ0和θ1。并设定好学习率λ,γ。
步骤2.2:从数据集DataI中,抽取一批包含Nc种组合的数据,记为数据集
Figure BDA0002374838310000091
步骤2.3:对数据集Databatch中每个组合记为
Figure BDA0002374838310000092
步骤2.4:从通用神经网络模型复制参数到局部神经网络模型,即θ1=θ0。在组合
Figure BDA0002374838310000093
下,抽取K条(h,s)数据,将信道增益h输入局部神经网络模型,以对应的最优决策s为标签,训练局部神经网络模型。
步骤2.5:以均方误差为损失函数,计算每一组合
Figure BDA0002374838310000094
下的误差值
Figure BDA0002374838310000095
更新局部神经网络参数θ1,以如下公式:
Figure BDA0002374838310000096
式中,各参数定义如下:
Figure BDA0002374838310000097
局部神经网络在组合i下更新后参数;
θ1:局部神经网络在更新前的参数,从通用神经网络模型复制而来;
λ:内循环学习率,用于更新局部神经网络参数;
Figure BDA0002374838310000098
组合i下的误差值对参数θ1的梯度;
步骤2.6:从组合i中再重新抽取K条(h,s)数据。基于这些数据计算局部神经网络模型在参数
Figure BDA0002374838310000099
下的损失值
Figure BDA00023748383100000910
并保存下来。若未将数据集Databatch中每一组合的数据训练一次神经网络,则返回步骤2.4。若数据集Databatch中不同组合数据均已被使用,则执行步骤2.7。
步骤2.7:将所有的损失值
Figure BDA00023748383100000911
累加起来更新通用神经网络模型的参数θ0。更新公式如下:
Figure BDA00023748383100000912
式中,各参数定义如下:
θ0:通用神经网络模型的参数;
γ:外训循环学习率,用于更新通用神经网络模型参数;
Figure BDA0002374838310000101
数据集Databatch中每一组合下数据的损失值的累加和对参数θ0的梯度;
步骤2.8:利用数据集DataI完成更新后,判断DataI中的训练数据是否全部被使用。是,则完成训练,获得多次更新后的通用神经网络模型和其参数θ0;否,则返回步骤2.2,重新抽取Nc种组合组成新的数据集Databatch进行训练。
(3)对一个新的区块链工作量证明计算任务组合,在训练好的神经网络模型基础上,进一步训练优化,可以快速适应新的计算任务组合,实现边缘服务器的智能缓存决策。具体的执行过程如下:
步骤3.1:新建立一个神经网络模型,与通用神经网络模型的架构相同,记其参数为θ2,并设定好学习率χ;
步骤3.2:复制训练好的通用神经网络模型参数,即θ2=θ0
步骤3.3:在该新计算任务组合下,采集G组信道增益。
步骤3.4:基于该新计算任务组合和信道增益数据,执行步骤1.5,求出G组信道条件下对应的最佳缓存决策。组成训练神经网络模型适应新组合问题的数据集。
步骤3.5:从步骤3.4获得的新组合数据集中,随机抽取K条(h,s)数据。将信道增益h输入神经网络模型,以对应的最优决策s为标签,进行梯度下降,微调模型参数θ2。参数调整公式如下:
Figure BDA0002374838310000102
式中,各参数定义如下:
θ2:测试神经网络的参数;
χ:利用梯度下降法更新参数时的学习率;
K:用于梯度下降的数据的数量;
L(θ2):参数为θ2的神经网络模型均方误差值;
步骤3.6:将神经网络模型预测出来的分流策略,与遍历法找到的最优决策进行对比。若误差值小于等于1%,则执行步骤3.7;若误差较大,则返回3.5,重新抽取K条(h,s)数据,训练神经网络模型。
步骤3.7:针对新计算任务组合的优化过程结束,获得新神经网络模型。在该组合下,当信道条件变化时,该模型能实时预测出多用户区块链系统的最佳缓存策略,实现智能缓存决策。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (8)

1.一种适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,包括以下步骤:
S1:上传用户终端的区块链工作量证明的计算任务并进行计算,采用深度学习算法获取用于训练神经网络的数据集;
S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;
S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新的神经网络模型;
步骤S1中所述的数据集包含区块链系统中用户工作量证明需求的不同组合,并以i,(i∈{1,2,…,I})代表不同组合;步骤S1中所述的获取数据集的具体步骤为:
S1.1:预先设置I个计算任务组合,每个组合包含N个区块链移动终端用户以及用户对应的工作量证明计算任务;
S1.2:对每个组合i(i∈I),采集F组信道增益{h1,h2,…,hN}f,f∈F;
S1.3:对每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策;
S1.4:给定某个组合i和某一组信道增益f,对每一个缓存决策,求解优化问题TMP,得到该决策对应的最大的代币收益值;
S1.5:给定某个组合i和某一组信道增益f,基于步骤S1.4中优化问题TMP计算所得代币收益值,遍历所有M*2N种二进制缓存决策,获取代币收益值的最大值,并记录最大代币收益值对应的缓存决策和信道增益(hf,sf)i
S1.6:给定某个组合i,对所有F组信道增益,重复步骤S1.5,保存组合i下的F组的数据(hf,sf),f∈{1,2,…,F},i∈{1,2,…,I};
S1.7:对于所有I个组合,重复步骤S1.6,生成每个组合的F组的数据(hff)i,f∈{1,2,…,F},i∈{1,2,…,I},保存并记录整个数为DataI,作为神经网络的训练数据据集;
步骤S1.2中所述的最大的代币收益值的计算方法为:以s(n)表示用户xn的缓存决策,如果s(n)为1,则表示边缘服务器AP缓存xn需要的哈希表,如果为0则表示边缘服务器不缓存哈希表,最大的代币收益值的计算方法为:
Figure FDA0002374838300000021
2.根据权利要求1中所述的适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,步骤S1.5中所述信道增益(hf,sf)i中h和s各含N条数据,对应了N位用户。
3.根据权利要求1中所述的适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,所述最大的代币收益值的计算过程中的约束条件为:
Figure FDA0002374838300000022
Figure FDA0002374838300000023
Figure FDA0002374838300000024
4.根据权利要求1中所述的适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,步骤S2中所述的神经网络模型的训练方法为:
S2.1:建立结构相同的通用神经网络模型和局部神经网络模型,初始参数分别设置为θ0和θ1,学习率分别设定为λ和γ;
S2.2:从步骤S1训练好的数据集中,抽取一批包含Nc种组合的数据,记为数据集Databatch
S2.3:将数据集Databatch中每个组合记为
Figure FDA0002374838300000025
S2.4:将通用神经网络模型的参数复制到局部神经网络模型中,即令θ1=θ0;在组合
Figure FDA0002374838300000026
下,抽取K条(h,s)数据,将信道增益h输入局部神经网络模型,并以对应的最优决策s为标签,训练局部神经网络模型;
S2.5:以均方误差为损失函数,计算每一组合
Figure FDA0002374838300000027
下的误差值
Figure FDA0002374838300000028
更新局部神经网络参数,并记为
Figure FDA0002374838300000031
S2.6:从组合i中再重新抽取K条(h,s)数据,以计算局部神经网络模型在参数
Figure FDA0002374838300000032
下的损失值
Figure FDA0002374838300000033
并保存;若未将数据集Databatch中每一组合的数据进行一次神经网络的训练,则返回步骤2.4;若数据集Databatch中不同组合数据均已被使用,则执行步骤S2.7;
S2.7:累加所有的损失值
Figure FDA0002374838300000034
并更新通用神经网络模型的参数;
S2.8:利用步骤S1中的数据集完成更新后,判断数据集中的训练数据是否全部被使用;若是,则完成训练,并获得多次更新后的通用神经网络模型和其参数;反之,则返回步骤S2.2再重新抽取Nc种组合组成新的数据集Databatch进行训练。
5.根据权利要求5中所述的适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,步骤S2.5中所述的更新后的局部神经网络参数
Figure FDA0002374838300000035
的计算公式为
Figure FDA0002374838300000036
6.根据权利要求4中所述的适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,步骤S2.7中所述的更新后的通用神经网络模型的参数计算公式为:
Figure FDA0002374838300000037
7.根据权利要求1中所述的适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,步骤S3中所述的优化训练生成新的神经网络模芯的具体步骤为:
S3.1:新建立一个与通用神经网络模型的架构相同的神经网络模型,记其参数为θ2,将学习率设定为χ;
S3.2:将训练好的通用神经网络模型参数复制到步骤S3.1中新的神经网络模型,即令θ2=θ0
S3.3:在新的神经网络模型的计算任务组合下,采集G组信道增益;
S3.4:基于步骤S3.3中的计算任务组合和信道增益数据,执行步骤S1.5,求出G组信道条件下对应的最佳缓存决策,以组成训练神经网络模型适应新组合问题的数据集;
S3.5:从步骤S3.4获得的新组合数据集中,随机抽取K条(h,s)数据,将信道增益h输入神经网络模型,以对应的最优决策s为标签,进行梯度下降操作,微调模型参数θ2
S3.6:将神经网络模型预测出来的分流策略与遍历法找到的最优决策进行对比;若误差值小于等于1%,则执行步骤S3.7;反之,则返回步骤S3.5;
S3.7:针对新计算任务组合的优化过程结束,获得新神经网络模型。
8.根据权利要求7中所述的适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,所述参数θ2的调整公式为:
Figure FDA0002374838300000041
CN202010062160.4A 2020-01-20 2020-01-20 一种适用于区块链工作量证明的多边缘服务器缓存算法 Pending CN111275200A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010062160.4A CN111275200A (zh) 2020-01-20 2020-01-20 一种适用于区块链工作量证明的多边缘服务器缓存算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010062160.4A CN111275200A (zh) 2020-01-20 2020-01-20 一种适用于区块链工作量证明的多边缘服务器缓存算法

Publications (1)

Publication Number Publication Date
CN111275200A true CN111275200A (zh) 2020-06-12

Family

ID=70998895

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010062160.4A Pending CN111275200A (zh) 2020-01-20 2020-01-20 一种适用于区块链工作量证明的多边缘服务器缓存算法

Country Status (1)

Country Link
CN (1) CN111275200A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112910873A (zh) * 2021-01-27 2021-06-04 广东工业大学 用于区块链事务异常检测的有用工作量证明方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018129356A1 (en) * 2017-01-06 2018-07-12 Highwinds Holdings, Inc. Cryptographic network protocol escalation path
US20190012595A1 (en) * 2017-07-07 2019-01-10 Pointr Data, Inc. Neural network consensus using blockchain
CN109302405A (zh) * 2018-10-31 2019-02-01 北京邮电大学 基于边缘计算的工业数据检测区块链网络架构及检测方法
WO2019070357A1 (en) * 2017-10-06 2019-04-11 Siemens Aktiengesellschaft METHOD AND SYSTEM FOR PLATFORM OF SECURE AND PRIVATE TERM OPERATIONS IN TRANSACTIVE MICROARRAYS
CN110312231A (zh) * 2019-06-28 2019-10-08 重庆邮电大学 一种车联网中基于移动边缘计算的内容缓存决策和资源分配联合优化方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018129356A1 (en) * 2017-01-06 2018-07-12 Highwinds Holdings, Inc. Cryptographic network protocol escalation path
US20190012595A1 (en) * 2017-07-07 2019-01-10 Pointr Data, Inc. Neural network consensus using blockchain
WO2019070357A1 (en) * 2017-10-06 2019-04-11 Siemens Aktiengesellschaft METHOD AND SYSTEM FOR PLATFORM OF SECURE AND PRIVATE TERM OPERATIONS IN TRANSACTIVE MICROARRAYS
CN109302405A (zh) * 2018-10-31 2019-02-01 北京邮电大学 基于边缘计算的工业数据检测区块链网络架构及检测方法
CN110312231A (zh) * 2019-06-28 2019-10-08 重庆邮电大学 一种车联网中基于移动边缘计算的内容缓存决策和资源分配联合优化方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李彬等: ""基于异构区块链的多能系统交易体系及关键技术"" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112910873A (zh) * 2021-01-27 2021-06-04 广东工业大学 用于区块链事务异常检测的有用工作量证明方法及系统
CN112910873B (zh) * 2021-01-27 2022-08-23 广东工业大学 用于区块链事务异常检测的有用工作量证明方法及系统

Similar Documents

Publication Publication Date Title
Tang et al. Computational intelligence and deep learning for next-generation edge-enabled industrial IoT
CN112181666B (zh) 一种基于边缘智能的设备评估和联邦学习重要性聚合方法
CN111382844B (zh) 一种深度学习模型的训练方法及装置
CN113255004B (zh) 一种安全且高效的联邦学习内容缓存方法
CN116187483A (zh) 模型训练方法、装置、设备、介质和程序产品
CN114169543A (zh) 一种基于模型陈旧性与用户参与度感知的联邦学习算法
CN112836822A (zh) 基于宽度学习的联邦学习策略优化方法和装置
CN116226901A (zh) 基于差分隐私的自适应Top-k扰动混洗联邦学习方法及系统
CN111327674B (zh) 一种适用于区块链工作量证明的单边缘服务器缓存方法
Wu et al. FedProf: Optimizing federated learning with dynamic data profiling
CN111275200A (zh) 一种适用于区块链工作量证明的多边缘服务器缓存算法
CN113194031B (zh) 雾无线接入网内结合干扰抑制的用户聚类方法及系统
CN112231009B (zh) 一种能量捕获网络模型任务计算卸载决策与调度方法
CN112286689A (zh) 一种适用于区块链工作量证明的协作式分流与储存方法
CN112416577A (zh) 一种适用于区块链工作量证明的协作式智能计算分流方法
CN115695429A (zh) 面向Non-IID场景的联邦学习客户端选择方法
Singhal et al. Greedy Shapley Client Selection for Communication-Efficient Federated Learning
CN114118381B (zh) 基于自适应聚合稀疏通信的学习方法、装置、设备及介质
CN116010832A (zh) 联邦聚类方法、装置、中心服务器、系统和电子设备
Han et al. Analysis and optimization of wireless federated learning with data heterogeneity
Tian et al. Hierarchical federated learning with adaptive clustering on non-IID data
CN117994635B (zh) 一种噪声鲁棒性增强的联邦元学习图像识别方法及系统
CN117196070B (zh) 一种面向异构数据的双重联邦蒸馏学习方法及装置
CN117692939B (zh) 一种动态通信环境下的客户端调度方法
CN114401491B (zh) 一种设备到设备通信中的资源分配方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination