CN112416577A - 一种适用于区块链工作量证明的协作式智能计算分流方法 - Google Patents

一种适用于区块链工作量证明的协作式智能计算分流方法 Download PDF

Info

Publication number
CN112416577A
CN112416577A CN202011223511.1A CN202011223511A CN112416577A CN 112416577 A CN112416577 A CN 112416577A CN 202011223511 A CN202011223511 A CN 202011223511A CN 112416577 A CN112416577 A CN 112416577A
Authority
CN
China
Prior art keywords
neural network
network model
data
training
combination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011223511.1A
Other languages
English (en)
Inventor
徐精忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo Huanhangzhouwan Big Data Information Technology Co ltd
Original Assignee
Ningbo Huanhangzhouwan Big Data Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo Huanhangzhouwan Big Data Information Technology Co ltd filed Critical Ningbo Huanhangzhouwan Big Data Information Technology Co ltd
Priority to CN202011223511.1A priority Critical patent/CN112416577A/zh
Publication of CN112416577A publication Critical patent/CN112416577A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种适用于区块链工作量证明的协作式智能计算分流方法,包括以下步骤:S1:获取用于训练神经网络的数据集,所述数据集包括区块链系统中用户工作量证明需求的不同组合;S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新神经网络模型。本发明区块链与移动边缘计算结合的智能系统中,通过将部分用户终端的计算任务分流到边缘服务器或远端云服务器,采用深度学习算法,决定每位用户的工作量证明是在本地用户终端计算还是分流到边缘服务器或远端云服务器计算,实现高效智能计算分流。

Description

一种适用于区块链工作量证明的协作式智能计算分流方法
技术领域
本发明涉及无线通信领域,具体涉及一种适用于区块链工作量证明的协作式智能计算分流方法。
背景技术
区块链技术建立分布式信任的能力已被广泛应用于各个领域。然而,区块链的工作量证明需大量计算资源,阻碍了其在无线移动网络中的普及应用。为了解决移动设备的计算资源和电池寿命方面的限制,可以利用边缘计算技术分流移动设备的密集型计算任务,确保区块链系统中交易的完整性和有效性,并提高区块链系统的整体收益。因此,设计一种高效的分流方法是很有必要的。
发明内容
为了解决上述问题,本发明提出了一种适用于区块链工作量证明的协作式智能计算分流方法,通过将部分用户终端的计算任务分流到边缘服务器或远端云服务器,采用深度学习算法,决定每位用户的工作量证明是在本地用户终端计算还是分流到边缘服务器或远端云服务器计算,实现高效智能计算分流。
本发明的技术方案如下所示:
一种适用于区块链工作量证明的协作式智能计算分流方法,包括以下步骤:
S1:获取用于训练神经网络的数据集,所述数据集包括区块链系统中用户工作量证明需求的不同组合,以j(j∈{1,2,…,J})代表不同组合;
S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;
S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新神经网络模型;
步骤S1中所述的获取数据集的具体步骤为:
S1.1:预先设置J个计算任务组合,并对每个组合j(j∈J),采集F组信道增益{h1,h2,…,hN}f,f∈F;
S1.2:对每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策;
S1.3:给定某个组合j和某一组信道增益f,针对分流与存储优化决策,求解优化问题PI,得到该决策对应的最大的代币收益值;
S1.4:给定某个组合j和某一组信道增益f,基于步骤S1.3中优化问题PI计算所得代币收益值,遍历3N种分流与储存优化决策,获取代币收益值的最大值,并记录最大收益值对应的分流决策和信道增益(hff)j
S1.5:给定某个组合i,对所有F组信道增益,重复步骤S1.4,保存组合i下的F组的数据(hff)j,f∈{1,2,…,F},j∈{1,2,…,J};
S1.6对于所有j个组合,重复步骤S1.5,生成每个组合的F组的数据(hff)j,f∈{1,2,…,F},j∈{1,2,…,J},保存并记录整个数为DataJ,作为神经网络的训练数据据集;
所述步骤S1.3中所述的最大的代币收益值的计算公式为:
P1:
Figure BDA0002762877990000021
优选的,步骤S1.4中所述信道增益(hf,sf)i中h和s各含N条数据,对应了N位用户。
优选的,所述最大的代币收益值的计算过程中的约束条件为:
Figure BDA0002762877990000022
Figure BDA0002762877990000023
Figure BDA0002762877990000024
优选的,步骤S2中所述的神经网络模型的训练方法为:
S2.1:建立结构相同的通用神经网络模型和局部神经网络模型,初始的网络参数分别设置为θ0和θ1,学习率分别设定为α,β;
S2.2:从训练数据集DataJ中,选取一批包含s种工作量证明计算任务的组合数据,记为数据集b,标记数据集b中每个组合下的训练数据为bi,i∈{1,2…s};
S2.3:从通用神经网络模型复制网络模型的网络参数到局部神经网络模型,即θ1=θ0。在计算任务组合bi下,随机选取K条(h,δ)数据,将其信道增益h输入局部神经网络模型,以对应的最优决策δ为标签,训练局部神经网络模型;
S2.4:以均方误差为损失函数,计算计算任务组合bi下的误差值
Figure BDA0002762877990000031
更新局部神经网络模型的网络参数θ1
S2.5:从计算任务组合bi中再重新选取K条(h,δ)数据,计算局部神经网络在网络参数
Figure BDA0002762877990000032
下的损失值
Figure BDA0002762877990000033
并保存,若没有对数据集b中每种计算任务的组合的数据进行一次训练,则返回S2.3;若数据集b中所有的数据均已使用,则执行S2.6;
S2.6:累加所有的损失值
Figure BDA0002762877990000034
并更新通用神经网络模型的网络参数;
S2.7:利用数据集b完成更新后,判断DataJ中的数据是否全部被使用,是,则完成训练,获得多次更新后的通用神经网络模型和其网络参数θ0;否则返回步骤S2.2。
优选的,步骤S2.4中所述的更新后的局部神经网络参数的计算公式为:
Figure BDA0002762877990000035
优选的,步骤S2.6中所述的更新后的通用神经网络模型的网络参数计算公式为:
Figure BDA0002762877990000036
优选的,步骤S3中所述的优化训练生成新的神经网络模芯的具体步骤为:
S3.1:建立一个与通用神经网络模型的架构相同的新神经网络模型,记其网络参数为θ2,将学习率设定为χ;
S3.2:将训练好的通用神经网络模型的网络参数复制到步骤S3.1中新的神经网络模型,即令θ2=θ0
S3.3:在新神经网络模型的计算任务组合下采集G组信道增益;
S3.4:基于该新计算任务组合和信道增益数据,执行步骤1.5,求出G组信道条件下对应的最佳分流决策。组成微调预训练模型的训练集,训练神经网络模型使其适应新组合问题;
S3.5:从步骤3.4获得的新组合数据集中,随机抽取K条(h,δ)数据。将信道增益h输入神经网络模型,以对应的最优决策δ为标签,进行梯度下降,微调模型参数θ2
S3.6:将神经网络模型预测出来的分流策略,与遍历法找到的最优决策进行对比。若误差值在1%以内,则执行步骤3.7;否则返回步骤3.5,重新抽取K条(h,δ)数据,训练神经网络模型;
S3.6:针对新计算任务组合的优化过程结束,获得新神经网络模型。
优选的,所述参数θ2的调整公式为:
Figure BDA0002762877990000041
本发明还提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现所述适用于区块链工作量证明的协作式智能计算分流方法的步骤。
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现所述适用于区块链工作量证明的协作式智能计算分流方法的步骤。
本发明的有益效果为:
1、针对区块链系统,将工作量证明从用户终端分流到边缘服务器和远端云服务器,降低延迟和能量损耗,提高服务质量和系统收益。
2、在用户终端,边缘服务器和远端云服务器的协作式分流方法,能够满足更多的需求,也能够将不同计算量要求的工作量证明任务分配得更加合理,做到响应更快,效率更高。
3、对于变化的无线网络信道增益,利用训练好的模型快速预测分流决策,能实现任务的在线分流。
4、适用于用户终端工作量证明计算任务变化的情况,使分流模型更具鲁棒性,避免每次为特定组合训练深度模型,提高了工作效率。
附图说明
图1是区块链系统和移动边缘计算相结合的分流模型示意图。
具体实施方式
下面将结合说明书附图对本发明的实施例进行详细说明。
一种适用于区块链工作量证明的协作式智能计算分流方法,实行该方法能在时变的无线信道增益下,获得最优分流决策。且当区块链系统中用户的工作量证明计算任务组合发生变化时,能以极少的训练步数和训练数据作到快速适应。本发明与移动边缘计算技术相结合,如图1所示。为了获得该情况下的区块链系统的最大代币收益,所有执行过程如下:
(1)在区块链与移动边缘计算结合的智能系统中,通过将部分用户终端的计算任务分流到边缘服务器或远端云服务器,采用深度学习算法,决定每位用户的工作量证明是在本地用户终端计算还是分流到边缘服务器或远端云服务器计算,实现高效智能计算分流。首先,获取用于训练神经网络的数据集,包含区块链系统中用户工作量证明计算任务的不同组合,以j(j∈{1,2,…,J})代表不同组合。本发明针对含N个用户的区块链系统,且在用户工作量证明计算任务组合可变的情况下,研究快速适应新计算任务组合的深度学习算法,实现计算任务的高效智能分流。获取训练数据的具体步骤如下:
步骤1.1:预先设置J个工作量证明计算任务组合,每个组合包含N个区块链移动终端用户以及用户对应的工作量证明计算任务。
步骤1.2:对于每个组合j(j∈J),采集F组信道增益{h1,h2,…,hN}f,f∈F。
步骤1.3:对于每组信道增益{h1,h2,…,hN},生成N个用户对应的共2N个二进制分流决策。
步骤1.4:给定某个组合j和某一组信道增益f,对于每一个分流决策,求解优化问题(P1),得到该决策对应的最大化代币收益值。其中,优化问题(P1)如下:
P1:
Figure BDA0002762877990000061
约束条件为:
Figure BDA0002762877990000062
Figure BDA0002762877990000063
Figure BDA0002762877990000064
式中:
E(L)(n)=κL(fL)3T(L)(n) (1-4)
E(S)(n)=κS(fS)3T(S)(n)+PnT(Tran)(n) (1-5)
E(C)(n)=κC(fC)3T(C)(n)+Pn(T(Tran)(n)+t) (1-6)
p(L)(n)=P[[[T(L)(n)≥τn] (1-7)
p(S)(n)=P[[[T(Tran)(n)+T(S)(n)≥τn] (1-8)
p(C)(n)=P[[[T(Tran)(n)+T(C)(n)+t≥τn] (1-9)
Figure BDA0002762877990000065
Figure BDA0002762877990000066
Figure BDA0002762877990000067
Figure BDA0002762877990000068
Figure BDA0002762877990000069
变量:h={hn},δ={δn(S)(n),δ(C)(n)},n∈N
将问题中各个参数说明如下:
N:区块链系统中用户终端的总数;
δ(n):用户n是否在本地进行工作量证明的决策。当δ(n)=1时,代表在本地进行;当δ(n)=0时,代表不在本地进行,则在边缘服务器或远端云服务器进行;δ(S)(n):用户n是否在边缘服务器进行工作量证明的决策。当δ(S)(n)=1时,代表在边缘服务器进行;当δ(S)(n)=0时,代表不在边缘服务器进行;
δ(C)(n):用户n是否在远端云服务器进行工作量证明的决策。当δ(C)(n)=1时,代表在远端云服务器进行;当δ(C)(n)=0时,代表不在远端云服务器进行;
ζnj (L):在组合j下,用户n在本地处理计算任务所获得的代币收益;
Figure BDA0002762877990000071
单位能耗对应的代币消耗;
E(L)(n):用户n本地处理其计算任务需要消耗的能量;
ζnj (S):在组合j下,用户n在边缘服务器处理计算任务所获得的代币收益;
E(S)(n):用户n在边缘服务器处理其计算任务需要消耗的能量;
ζnj (C):在组合j下,用户n在远端云服务器处理计算任务所获得的代币收益;
E(C)(n):用户n在远端云服务器处理其计算任务需要消耗的能量;
Z:一组用户终端作出分流决策时所需的代币消耗;
τn:用户n在进行工作量证明时所需时间的阈值,超过阈值则失效;
p(L)(n):用户n在本地进行工作量证明所需时间超过阈值的概率(此处称为失效概率);
p(S)(n):用户n在边缘服务器进行工作量证明所需时间超过阈值的概率;
p(C)(n):用户n在远端云服务器进行工作量证明所需时间超过阈值的概率;
γj:在组合j下,这组用户终端处理其计算任务的失效概率的阈值;
κL:用户终端处理任务时的计算能量效率系数;
κS:边缘服务器处理任务时的计算能量效率系数;
κC:远端云服务器处理任务时的计算能量效率系数;
fL:用户终端的计算能力;
fS:边缘服务器的计算能力;
fC:远端云服务器的计算能力;
t:计算任务从边缘服务器传输至远端云服务器的时间;
P:概率运算;
T(L)(n):用户n在本地处理其计算任务需要消耗的时间;
T(Tran)(n):用户n将其计算任务传输到边缘服务器需要消耗的时间;
T(S)(n):用户n在边缘服务器处理其计算任务需要消耗的时间;
Pn:用户n在将计算任务分流到边缘服务器时的传输功率;
Dn:用户n进行工作量证明需要处理的任务大小(单位:比特);
Xn:用户n处理其任务需要的CPU周期数与任务大小的比率(单位:周期/比特);
R(n):用户n和边缘服务器之间的传输速率;
B:用户终端与边缘服务器之间的带宽;
hn:用户n与边缘服务器之间的无线信道增益;
σ2:无线网络噪声功率;
步骤1.5:给定某个组合j和某一组信道增益f,基于步骤1.4中优化问题(P1)计算所得代币收益值,遍历所有3N种分流决策,找到收益值的最大值,并记录最大收益值对应的分流决策和信道增益(hff)j,其中h和δ各含N条数据,对应N位用户。
步骤1.6:给定某个组合j,对所有F组信道增益,重复步骤1.5,保存组合j下的F组数据(hff)j,f∈{1,2,…,F}。
步骤1.7:对于所有J个组合,重复步骤1.6,生成每个组合的F组数据(hff)j,f∈{1,2,…,F},j∈{1,2,…,J},保存并记录整个数据集为DataJ,作为神经网络的训练数据。
(2)以步骤(1)中获取的数据为标签,训练一个神经网络模型。在训练阶段,让神经网络模型遍历不同组合下的数据,以此更新模型参数。具体的训练步骤如下:
步骤2.1:建立一个通用神经网络模型和局部神经网络模型,两个模型结构相同且初始参数为θ0和θ1。并设定好学习率α,β。
步骤2.2:从数据集DataJ中,抽取一批包含s种组合的数据,记为数据集b。
步骤2.3:标记数据集b中每个组合下的训练数据为bi,i∈{1,2…s}。
步骤2.4:从通用神经网络模型复制参数到局部神经网络模型,即θ1=θ0。在组合bi下,抽取K条(h,δ)数据。将信道增益h输入局部神经网络模型,以对应的最优决策δ为标签,训练局部神经网络模型。
步骤2.5:以均方误差为损失函数,计算组合bi下的误差值Lbi1),更新局部神经网络模型参数θ1,以如下公式:
Figure BDA0002762877990000091
式中,各参数定义如下:
Figure BDA0002762877990000097
局部神经网络模型在组合bi下更新后参数;
θ1:局部神经网络模型在更新前的参数,从通用模型复制而来;
α:内循环学习率,用于更新局部神经网络模型参数;
Figure BDA0002762877990000092
组合bi下的误差值对参数θ1的梯度;
步骤2.6:从组合bi中再重新抽取K条(h,δ)数据。基于这些数据计算局部神经网络模型在参数
Figure BDA0002762877990000093
下的损失值
Figure BDA0002762877990000094
并保存下来。若未将数据集b中每一组合的数据训练一次神经网络,则返回步骤2.4。若数据集b中不同组合数据均已被使用,则执行步骤2.7。
步骤2.7:将所有的损失值
Figure BDA0002762877990000095
累加起来更新通用神经网络模型的参数θ0。更新公式如下:
Figure BDA0002762877990000096
式中,各参数定义如下:
θ0:通用神经网络的参数;
β:外循环学习率,用于更新通用神经网络模型参数;
Figure BDA0002762877990000101
数据集b中每一组合下数据的损失值的累加和对参数θ0的梯度;
步骤2.8:利用数据集b完成更新后,判断DataJ中的所有组合是否全部被使用。是,则完成训练,获得多次更新后的通用神经网络模型和其参数θ0;否,则返回步骤2.2,重新抽取s种组合组成新的数据集b进行训练。
(3)对一个新的区块链工作量证明计算任务组合,在训练好的神经网络模型基础上,进一步训练优化,可以快速适应新的计算任务组合,实现边缘服务器的智能分流决策。具体的执行过程如下:
步骤3.1:新建立一个神经网络模型,与通用神经网络模型的架构相同,记其参数为θ2,并设定好学习率χ;
步骤3.2:复制训练好的通用神经网络模型参数,即θ2=θ0
步骤3.3:在该新计算任务组合下,采集G组信道增益。
步骤3.4:基于该新计算任务组合和信道增益数据,执行步骤1.5,求出G组信道条件下对应的最佳分流决策。组成训练神经网络模型适应新组合问题的数据集。
步骤3.5:从步骤3.4获得的新组合数据集中,随机抽取K条(h,δ)数据。将信道增益h输入神经网络模型,以对应的最优决策δ为标签,进行梯度下降,微调模型参数θ2。参数调整公式如下:
Figure BDA0002762877990000102
式中,各参数定义如下:
θ2:神经网络模型的参数,从训练好的通用神经网络模型复制而来;
χ:利用梯度下降法更新参数时的学习率;
K:用于梯度下降的数据的数量;
L(θ2):参数为θ2的神经网络模型均方误差值;
步骤3.6:将神经网络模型预测出来的分流策略,与遍历法找到的最优决策进行对比。若误差值在1%以内,则执行步骤3.7;否则返回步骤3.5,重新抽取K条(h,δ)数据,训练神经网络模型。
步骤3.7:针对新计算任务组合的优化过程结束,获得新神经网络模型。在该组合下,当信道条件变化时,该模型能实时预测出多用户区块链系统的最佳分流策略,实现智能分流决策。
本发明还提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现所述适用于区块链工作量证明的协作式智能计算分流方法的步骤。
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现所述适用于区块链工作量证明的协作式智能计算分流方法的步骤。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种适用于区块链工作量证明的协作式智能计算分流方法,其特征在于,包括以下步骤:
S1:获取用于训练神经网络的数据集,所述数据集包括区块链系统中用户工作量证明需求的不同组合,以j(j∈{1,2,…,J})代表不同组合;
S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;
S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新神经网络模型;
步骤S1中所述的获取数据集的具体步骤为:
S1.1:预先设置J个计算任务组合,并对每个组合j(j∈J),采集F组信道增益{h1,h2,…,hN}f,f∈F;
S1.2:对每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策;
S1.3:给定某个组合j和某一组信道增益f,针对分流与存储优化决策,求解优化问题PI,得到该决策对应的最大的代币收益值;
S1.4:给定某个组合j和某一组信道增益f,基于步骤S1.3中优化问题PI计算所得代币收益值,遍历2N种分流与储存优化决策,获取代币收益值的最大值,并记录最大收益值对应的分流决策和信道增益(hff)j
S1.5:给定某个组合i,对所有F组信道增益,重复步骤S1.4,保存组合i下的F组的数据(hff)j,f∈{1,2,…,F},j∈{1,2,…,J};
S1.6对于所有j个组合,重复步骤S1.5,生成每个组合的F组的数据(hff)j,f∈{1,2,…,F},j∈{1,2,…,J},保存并记录整个数为DataJ,作为神经网络的训练数据据集;
所述步骤S1.3中所述的最大的代币收益值的计算公式为:
P1:
Figure FDA0002762877980000011
2.根据权利要求1中所述的适用于区块链工作量证明的协作式智能计算分流方法,其特征在于,步骤S1.4中所述信道增益(hf,sf)i中h和s各含N条数据,对应了N位用户。
3.根据权利要求2中所述的适用于区块链工作量证明的协作式智能计算分流方法,其特征在于,所述最大的代币收益值的计算过程中的约束条件为:
Figure FDA0002762877980000021
Figure FDA0002762877980000022
Figure FDA0002762877980000023
4.根据权利要求1中所述的适用于区块链工作量证明的协作式智能计算分流方法,其特征在于,步骤S2中所述的神经网络模型的训练方法为:
S2.1:建立结构相同的通用神经网络模型和局部神经网络模型,初始的网络参数分别设置为θ0和θ1,学习率分别设定为α,β;
S2.2:从训练数据集DataJ中,选取一批包含s种工作量证明计算任务的组合数据,记为数据集b,标记数据集b中每个组合下的训练数据为bi,i∈{1,2…s};
S2.3:从通用神经网络模型复制网络模型的网络参数到局部神经网络模型,即θ1=θ0。在计算任务组合bi下,随机选取K条(h,δ)数据,将其信道增益h输入局部神经网络模型,以对应的最优决策δ为标签,训练局部神经网络模型;
S2.4:以均方误差为损失函数,计算计算任务组合bi下的误差值
Figure FDA0002762877980000024
更新局部神经网络模型的网络参数θ1
S2.5:从计算任务组合bi中再重新选取K条(h,δ)数据,计算局部神经网络在网络参数
Figure FDA0002762877980000025
下的损失值
Figure FDA0002762877980000026
并保存,若没有对数据集b中每种计算任务的组合的数据进行一次训练,则返回S2.3;若数据集b中所有的数据均已使用,则执行S2.6;
S2.6:累加所有的损失值
Figure FDA0002762877980000027
并更新通用神经网络模型的网络参数;
S2.7:利用数据集b完成更新后,判断DataJ中的数据是否全部被使用,是,则完成训练,获得多次更新后的通用神经网络模型和其网络参数θ0;否则返回步骤S2.2。
5.根据权利要求4中所述的适用于区块链工作量证明的单边缘服务器缓存算法,其特征在于,步骤S2.4中所述的更新后的局部神经网络参数的计算公式为:
Figure FDA0002762877980000031
6.根据权利要求4中所述的适用于区块链工作量证明的协作式智能计算分流方法,其特征在于,步骤S2.6中所述的更新后的通用神经网络模型的网络参数计算公式为:
Figure FDA0002762877980000032
7.根据权利要求1中所述的适用于区块链工作量证明的协作式智能计算分流方法,其特征在于,步骤S3中所述的优化训练生成新的神经网络模芯的具体步骤为:
S3.1:建立一个与通用神经网络模型的架构相同的新神经网络模型,记其网络参数为θ2,将学习率设定为χ;
S3.2:将训练好的通用神经网络模型的网络参数复制到步骤S3.1中新的神经网络模型,即令θ2=θ0
S3.3:在新神经网络模型的计算任务组合下采集G组信道增益;
S3.4:基于该新计算任务组合和信道增益数据,执行步骤1.5,求出G组信道条件下对应的最佳分流决策。组成微调预训练模型的训练集,训练神经网络模型使其适应新组合问题;
S3.5:从步骤3.4获得的新组合数据集中,随机抽取K条(h,δ)数据。将信道增益h输入神经网络模型,以对应的最优决策δ为标签,进行梯度下降,微调模型参数θ2
S3.6:将神经网络模型预测出来的分流策略,与遍历法找到的最优决策进行对比。若误差值在1%以内,则执行步骤3.7;否则返回步骤3.5,重新抽取K条(h,δ)数据,训练神经网络模型;
S3.6:针对新计算任务组合的优化过程结束,获得新神经网络模型。
8.根据权利要求7中所述的适用于区块链工作量证明的协作式智能计算分流方法,其特征在于,所述参数θ2的调整公式为:
Figure FDA0002762877980000041
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述方法的步骤。
CN202011223511.1A 2020-11-05 2020-11-05 一种适用于区块链工作量证明的协作式智能计算分流方法 Pending CN112416577A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011223511.1A CN112416577A (zh) 2020-11-05 2020-11-05 一种适用于区块链工作量证明的协作式智能计算分流方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011223511.1A CN112416577A (zh) 2020-11-05 2020-11-05 一种适用于区块链工作量证明的协作式智能计算分流方法

Publications (1)

Publication Number Publication Date
CN112416577A true CN112416577A (zh) 2021-02-26

Family

ID=74827602

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011223511.1A Pending CN112416577A (zh) 2020-11-05 2020-11-05 一种适用于区块链工作量证明的协作式智能计算分流方法

Country Status (1)

Country Link
CN (1) CN112416577A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801292A (zh) * 2021-04-12 2021-05-14 链博(成都)科技有限公司 基于区块链智能合约的神经网络训练方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801292A (zh) * 2021-04-12 2021-05-14 链博(成都)科技有限公司 基于区块链智能合约的神经网络训练方法及系统

Similar Documents

Publication Publication Date Title
Tang et al. Computational intelligence and deep learning for next-generation edge-enabled industrial IoT
CN112181666B (zh) 一种基于边缘智能的设备评估和联邦学习重要性聚合方法
Sun et al. Adaptive federated learning and digital twin for industrial internet of things
CN113222179B (zh) 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法
CN109167787B (zh) 一种移动边缘计算网络中安全计算卸载的资源优化方法
CN114528304A (zh) 一种自适应客户端参数更新的联邦学习方法、系统及存储介质
CN110968426B (zh) 一种基于在线学习的边云协同k均值聚类的模型优化方法
CN107948083B (zh) 一种基于增强学习的sdn数据中心拥塞控制方法
WO2021212649A1 (zh) 一种入侵杂草算法求解资源受限项目调度方法
CN114585006B (zh) 基于深度学习的边缘计算任务卸载和资源分配方法
CN111158912A (zh) 云雾协同计算环境下一种基于深度学习的任务卸载决策方法
CN115374853A (zh) 基于T-Step聚合算法的异步联邦学习方法及系统
CN116187483A (zh) 模型训练方法、装置、设备、介质和程序产品
CN114040425A (zh) 一种基于全局资源效用率优化的资源分配方法
CN111832817A (zh) 基于mcp罚函数的小世界回声状态网络时间序列预测方法
CN112416577A (zh) 一种适用于区块链工作量证明的协作式智能计算分流方法
CN113194031B (zh) 雾无线接入网内结合干扰抑制的用户聚类方法及系统
CN111327674B (zh) 一种适用于区块链工作量证明的单边缘服务器缓存方法
WO2022095246A1 (zh) 一种基于差分隐私机制的边缘智能电网协作决策方法
Jiang et al. An optimal stopping approach for iterative training in federated learning
CN112286689A (zh) 一种适用于区块链工作量证明的协作式分流与储存方法
CN116723547A (zh) 一种雾无线接入网中基于本地化联邦强化学习的协作缓存方法
Peng et al. Data-driven spectrum partition for multiplexing URLLC and eMBB
Singhal et al. Greedy Shapley Client Selection for Communication-Efficient Federated Learning
CN111275200A (zh) 一种适用于区块链工作量证明的多边缘服务器缓存算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination