CN111327674B - 一种适用于区块链工作量证明的单边缘服务器缓存方法 - Google Patents
一种适用于区块链工作量证明的单边缘服务器缓存方法 Download PDFInfo
- Publication number
- CN111327674B CN111327674B CN202010062159.1A CN202010062159A CN111327674B CN 111327674 B CN111327674 B CN 111327674B CN 202010062159 A CN202010062159 A CN 202010062159A CN 111327674 B CN111327674 B CN 111327674B
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- data
- data set
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/142—Network analysis or design using statistical or mathematical methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Probability & Statistics with Applications (AREA)
- Pure & Applied Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
一种适用于区块链工作量证明的单边缘服务器缓存算法,包括以下步骤:S1:上传用户终端的区块链工作量证明的计算任务并进行计算,采用深度学习算法获取用于训练神经网络的数据集;S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新的神经网络模型。本发明的有益效果为:本发明提供的方法在用户终端能够减少本地计算能量损耗,同时还能够解决由信道增益造成任务传输的时延,在面对新任务时,可以快速适应,在保证获利的情况下最小化任务执行总时间从而最大化系统的总收益。
Description
技术领域
本发明涉及无线通信领域,具体涉及一种适用于区块链工作量证明的单边缘服务器缓存算法。
背景技术
区块链技术建立分布式信任的能力已被广泛应用于各个领域,但区块链工作量证明任务受限于用户终端的计算算力和存储容量,随着边缘计算技术的发展,目前可以通过边缘计算技术解决算力和存储有限的问题。
针对多个用户终端和单个边缘服务器在多种区块链应用下的动态工作量证明需求,当计算任务被分流到边缘服务器时,对于每一个计算任务,执行总时间有一个规定的阈值,若超过这个时间则计算任务不能够获得收益,因此要保证在不同的信道增益下做出合理的缓存决策,尽可能的缩短计算任务执行的总时间且尽可能的小,使得最终获得的收益最高。这个过程需要考虑边缘服务器缓存任务所需哈希表带来的收益以及代价对最终执行任务后的总收益的影响。
用户终端可以减少自己的能耗,但由于传输任务通过无线信道传输,需要一定的时间,因此会造成传输时延,当信道增益改变时,需要边缘服务器还能够做出合理的缓存决策仍能使总体时间不超过计算任务规定的时间,使得计算任务有最大概率能获得收益,因此本发明提供了最优的边缘服务器对于工作量证明的计算任务需要的哈希表的缓存决策方法。
发明内容
本发明提供了一种适用于区块链工作量证明的单边缘服务器缓存算法,针对多个用户终端和单个边缘服务器在多种区块链应用下的动态工作量证明需求,能够在减少用户本地计算能量损耗的同时,保证工作量证明的计算任务能够获利,并减少计算任务的总时间。
本发明的技术方案如下所示:一种适用于区块链工作量证明的单边缘服务器缓存算法,包括以下步骤:
S1:上传用户终端的区块链工作量证明的计算任务并进行计算,采用深度学习算法获取用于训练神经网络的数据集;
S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;
S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新的神经网络模型;
步骤S1中所述的数据集包含区块链系统中用户工作量证明需求的不同组合,并以i,(i∈{1,2,…,I})代表不同组合。
优选的,步骤S1中所述的获取数据集的具体步骤为:
S1.1:预先设置I个计算任务组合,并对每个组合i(i∈I),采集F组信道增益{h1,h2,…,hN}f,f∈F;
S1.2:对每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策;
S1.3:给定某个组合i和某一组信道增益f,对每一个缓存决策,求解优化问题TMP,得到该决策对应的最大的代币收益值;
S1.4:给定某个组合i和某一组信道增益f,基于步骤S1.3中优化问题TMP 计算所得代币收益值,遍历所有2N种二进制缓存决策,获取代币收益值的最大值,并记录最大代币收益值对应的缓存决策和信道增益(hf,sf)i;
S1.5:给定某个组合i,对所有F组信道增益,重复步骤S1.4,保存组合i下的F组的数据(hf,δf)i,f∈{1,2,…,F},i∈{1,2,…,I};
S1.6对于所有I个组合,重复步骤S1.5,生成每个组合的F组的数据 (hf,δf)i,f∈{1,2,…,F},i∈{1,2,…,I},保存并记录整个数为DataI,作为神经网络的训练数据据集。
优选的,步骤S1.4中所述信道增益(hf,sf)i中h和s各含N条数据,对应了 N位用户。
优选的,步骤S1.2中所述的最大的代币收益值的计算方法为:以s(n)表示用户xn的缓存决策,如果s(n)为1,则表示边缘服务器AP缓存xn需要的哈希表,如果为0则表示边缘服务器不缓存哈希表,最大的代币收益值的计算方法为:
优选的,所述最大的代币收益值的计算过程中的约束条件为:
优选的,步骤S2中所述的神经网络模型的训练方法为:
S2.1:建立结构相同的通用神经网络模型和局部神经网络模型,初始参数分别设置为θ0和θ1,学习率分别设定为λ,γ;
S2.2:从步骤S1训练好的数据集中,抽取一批包含Nc种组合的数据,记为数据集Databatch;
S2.6:从组合i中再重新抽取K条(h,s)数据,以计算局部神经网络模型在参数下的损失值并保存;若未将数据集Databatch中每一组合的数据进行一次神经网络的训练,则返回步骤2.4;若数据集Databatch中不同组合数据均已被使用,则执行步骤S2.7;
S2.8:利用步骤S1中的数据集完成更新后,判断数据集中的训练数据是否全部被使用;若是,则完成训练,并获得多次更新后的通用神经网络模型和其参数;反之,则返回步骤S2.2再重新抽取Nc种组合组成新的数据集Databatch进行训练。
优选的,步骤S3中所述的优化训练生成新的神经网络模芯的具体步骤为:
S3.1:新建立一个与通用神经网络模型的架构相同的神经网络模型,记其参数为θ2,将学习率设定为χ;
S3.2:将训练好的通用神经网络模型参数复制到步骤S3.1中新的神经网络模型,即令θ2=θ0;
S3.3:在新的神经网络模型的计算任务组合下,采集G组信道增益;
S3.4:基于步骤S3.3中的计算任务组合和信道增益数据,执行步骤S1.5,求出G组信道条件下对应的最佳缓存决策,以组成训练神经网络模型适应新组合问题的数据集;
S3.5:从步骤S3.4获得的新组合数据集中,随机抽取K条(h,s)数据,将信道增益h输入神经网络模型,以对应的最优决策s为标签,进行梯度下降操作,微调模型参数θ2;
S3.6:将神经网络模型预测出来的分流策略与遍历法找到的最优决策进行对比;若误差值小于等于1%,则执行步骤S3.7;反之,则返回步骤S3.5;
S3.7:针对新计算任务组合的优化过程结束,获得新神经网络模型。
本发明的有益效果为:本发明提供的方法针对多个用户终端和单个边缘服务器在多种区块链应用下的动态工作量证明需求,在用户终端能够减少本地计算能量损耗,同时还能够解决由信道增益造成任务传输的时延,通过深度学习寻找出边缘服务器最优的缓存决策方法,在面对新任务时,可以快速适应,在保证获利的情况下最小化任务执行总时间从而最大化系统的总收益;当区块链系统中用户的工作量证明计算任务组合发生变化时,能以极少的训练步数和训练数据做到快速适应。
附图说明
图1是多个用户终端和单个远程服务器和单个边缘服务器组合下的哈希表缓存决策框架的示意图。
具体实施方式
下面结合附图对本发明作进一步详细描述。
本发明与移动边缘计算技术相结合,如图1所示,提供一种适用于区块链工作量证明的单边缘服务器缓存算法,包括以下步骤:在区块链与移动边缘计算结合的智能系统中,将用户终端的区块链工作量证明的计算任务上传到边缘服务器并进行计算,采用深度学习算法决定边缘服务器是否缓存计算后的区块链哈希表。首先,获取用于训练神经网络的数据集,包含区块链系统中用户工作量证明需求的不同组合,以i,(i∈{1,2,…,I})代表不同组合。本发明针对含N个用户单个边缘服务器和单个远程服务器的区块链系统,且在用户需求组合可变的情况下,研究快速适应新需求组合的深度学习算法,实现计算任务中边缘服务器的高效智能缓存。获取训练数据的具体步骤如下:
步骤1.1:预先设置I个计算任务组合,即N个用户在不同计算任务组合下的工作量证明类型是不同的。
步骤1.2:对于每个组合i(i∈I),采集F组信道增益{h1,h2,…,hN}f,f∈F。
步骤1.3:对于每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策。
步骤1.4:给定某个组合i和某一组信道增益f,对每一个缓存决策,求解优化问题(TMP),得到该决策对应的最大化代币收益值。用s(n)表示用户xn的缓存决策,如果s(n)为1则表示边缘服务器AP缓存xn需要的哈希表,如果s(n)为0则表示边缘服务器AP不缓存哈希表,其中优化问题(TMP)如下:
其中,各参数定义如下:
E(n):全部分流情况下边缘服务器所产生的能量损耗;
Λn:缓存决策回报;
Z:缓存决策代价;
ζ(n):用户n在边缘服务器处理计算任务所获得的代币收益;
上述计算过程约束条件为:
式中:
T0(n)=Tup+Tpro;
T1(n)=Tup+Tpro+Tn;
变量:h={hn},s={sn},n∈N;其中,各参数定义如下:
T0(n):缓存决策下的时间消耗;
T1(n):不缓存决策下的时间消耗;
Tup:计算任务通过无线信道传输时间;
Tpro:计算任务在边缘服务器上计算消耗时间;
E(n):用户n边缘服务其处理其计算任务需要消耗的能量;
Z:一组用户终端做出缓存决策时所需的代币消耗;
σ2:噪声功率;
α:路径损耗指数;
Rn:用户n和边缘服务器之间的传输速率;
Dn:用户n进行工作量证明需要处理的任务大小
Xn:用户n处理其任务需要的CPU周期数与任务大小的比率
T:所有用户终端的任务被执行完所需时间的最大阈值;
rn:用户终端xn与边缘服务器AP的距离;
hn:用户终端xn与边缘服务器AP之间的信道增益;
Pn:用户终端xn的发射功率;
B:用户终端与边缘服务器之间的传输带宽;
N:区块链系统中用户终端的总数;
s(n):用户终端xn的工作量证明的计算任务An的分流决策,为1时表示边缘服务器缓存哈希表,为0时表示用户终端xn从远程服务器下载哈希表;
f:边缘服务器AP的计算能力;
O:缓存代价;
Xn:哈希表的大小;
Tn:对于用户终端xn请求边缘服务器AP缓存哈希表所耗的时间。
步骤1.5:给定某个组合i和某一组信道增益f,基于步骤1.4中优化问题 (TMP)计算所得代币收益值,遍历所有2N种二进制缓存决策,找到收益值的最大值,并记录最大收益值对应的缓存决策和信道增益(hf,sf)i,其中h和s各含 N条数据,对应N位用户。
步骤1.6:给定某个组合i,对所有F组信道增益,重复步骤1.5,保存组合i 下的F组“信道增益-最优决策”数据(hf,δf)i,f∈{1,2,…,F},i∈{1,2,…,I},并将整个数据集记为DataI。
步骤1.7:对于所有I个组合,重复步骤1.6,生成每个组合的F组“信道增益-最优决策”数据(hf,δf)i,f∈{1,2,…,F},i∈{1,2,…,I},保存并记录整个数据集为DataI,作为神经网络的训练数据。
(2)以步骤(1)中生成的数据为标签,训练一个神经网络模型。在训练阶段,让神经网络模型遍历不同组合下的训练数据,以此更新网络参数。具体的训练步骤如下:
步骤2.1:建立一个通用神经网络模型和局部神经网络模型,两个模型结构相同且初始参数为θ0和θ1。并设定好学习率λ,γ。
步骤2.2:从数据集DataI中,抽取一批包含Nc种组合的数据,记为数据集Databatch。
式中,各参数定义如下:
θ1:局部神经网络在更新前的参数,从通用神经网络模型复制而来;
λ:内循环学习率,用于更新局部神经网络参数;
步骤2.6:从组合i中再重新抽取K条(h,s)数据。基于这些数据计算局部神经网络模型在参数下的损失值并保存下来。若未将数据集 Databatch中每一组合的数据训练一次神经网络,则返回步骤2.4。若数据集Databatch中不同组合数据均已被使用,则执行步骤2.7。
式中,各参数定义如下:
θ0:通用神经网络模型的参数;
γ:外训循环学习率,用于更新通用神经网络模型参数;
步骤2.8:利用数据集DataI完成更新后,判断DataI中的训练数据是否全部被使用。是,则完成训练,获得多次更新后的通用神经网络模型和其参数θ0;否,则返回步骤2.2,重新抽取Nc种组合组成新的数据集Databatch进行训练。
(3)对一个新的区块链工作量证明计算任务组合,在训练好的神经网络模型基础上,进一步训练优化,可以快速适应新的计算任务组合,实现边缘服务器的智能缓存决策。具体的执行过程如下:
步骤3.1:新建立一个神经网络模型,与通用神经网络模型的架构相同,记其参数为θ2,并设定好学习率χ;
步骤3.2:复制训练好的通用神经网络模型参数,即θ2=θ0。
步骤3.3:在该新计算任务组合下,采集G组信道增益。
步骤3.4:基于该新计算任务组合和信道增益数据,执行步骤1.5,求出G组信道条件下对应的最佳缓存决策。组成训练神经网络模型适应新组合问题的数据集。
步骤3.5:从步骤3.4获得的新组合数据集中,随机抽取K条(h,s)数据。将信道增益h输入神经网络模型,以对应的最优决策s为标签,进行梯度下降,微调模型参数θ2。参数调整公式如下:式中,各参数定义如下:
θ2:测试神经网络的参数;
χ:利用梯度下降法更新参数时的学习率;
K:用于梯度下降的数据的数量;
L(θ2):参数为θ2的神经网络模型均方误差值;
步骤3.6:将神经网络模型预测出来的分流策略,与遍历法找到的最优决策进行对比。若误差值小于等于1%,则执行步骤3.7;若误差较大,则返回3.5,重新抽取K条(h,s)数据,训练神经网络模型。
步骤3.7:针对新计算任务组合的优化过程结束,获得新神经网络模型。在该组合下,当信道条件变化时,该模型能实时预测出多用户区块链系统的最佳缓存策略,实现智能缓存决策。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (9)
1.一种适用于区块链工作量证明的单边缘服务器缓存方法,其特征在于,包括以下步骤:
S1:上传用户终端的区块链工作量证明的计算任务并进行计算,采用深度学习算法获取用于训练神经网络的数据集;
S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;
S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新的神经网络模型;
步骤S1中所述的数据集包含区块链系统中用户工作量证明需求的不同组合,并以i,(i∈{1,2,…,I})代表不同组合;步骤S1中所述的获取数据集的具体步骤为:
S1.1:预先设置I个计算任务组合,并对每个组合i,(i∈I),采集F组信道增益{h1,h2,…,hN}f,f∈F;
S1.2:对每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策;
S1.3:给定某个组合i和某一组信道增益f,对每一个缓存决策,求解优化
问题TMP,得到该决策对应的最大的代币收益值;
S1.4:给定某个组合i和某一组信道增益f,基于步骤S1.3中优化问题TMP计算所得代币收益值,遍历所有2N种二进制缓存决策,获取代币收益值的最大值,并记录最大代币收益值对应的缓存决策和信道增益(hf,sf)i;
S1.5:给定某个组合i,对所有F组信道增益,重复步骤S1.4,保存组合i下的F组的数据(hf,δf)i,f∈{1,2,…,F},i∈{1,2,…,I};
S1.6对于所有I个组合,重复步骤S1.5,生成每个组合的F组的数据
(hf,δf)i,f∈{1,2,…,F},i∈{1,2,…,I},保存并记录整个数为DataI,作为神经网络的训练数据集。
2.根据权利要求1中所述的适用于区块链工作量证明的单边缘服务器缓存方法,其特征在于,步骤S1.4中所述信道增益(hf,sf)i中h和s各含N条数据,对应了N位用户。
5.根据权利要求1中所述的适用于区块链工作量证明的单边缘服务器缓存方法,其特征在于,步骤S2中所述的神经网络模型的训练方法为:
S2.1:建立结构相同的通用神经网络模型和局部神经网络模型,初始参数分别设置为θ0和θ1,学习率分别设定为λ,γ;
S2.2:从步骤S1训练好的数据集中,抽取一批包含Nc种组合的数据,记为数据集Databatch;
S2.4:将通用神经网络模型的参数复制到局部神经网络模型中,即令
S2.6:从组合i中再重新抽取K条(h,s)数据,以计算局部神经网络模型在参数下的损失值保存;若未将数据集Databatch中每一组合的数据进行一次神经网络的训练,则返回步骤2.4;若数据集Databatch中不同组合数据均已被使用,则执行步骤S2.7;
S2.8:利用步骤S1中的数据集完成更新后,判断数据集中的训练数据是否全部被使用;若是,则完成训练,并获得多次更新后的通用神经网络模型和其参数;反之,则返回步骤S2.2再重新抽取Nc种组合组成新的数据集Databatch进行训练。
8.根据权利要求1中所述的适用于区块链工作量证明的单边缘服务器缓存方法,其特征在于,步骤S3中所述的训练优化生成新的神经网络模芯的具体步骤为:
S3.1:新建立一个与通用神经网络模型的架构相同的神经网络模型,记其参数为θ2,将学习率设定为χ;
S3.2:将训练好的通用神经网络模型参数复制到步骤S3.1中新的神经网络模型,即令θ2=θ0;
S3.3:在新的神经网络模型的计算任务组合下,采集G组信道增益;
S3.4:基于步骤S3.3中的计算任务组合和信道增益数据,执行步骤S1.5,求出G组信道条件下对应的最佳缓存决策,以组成训练神经网络模型适应新组合问题的数据集;
S3.5:从步骤S3.4获得的新组合数据集中,随机抽取K条(h,s)数据,将信道增益h输入神经网络模型,以对应的最优决策s为标签,进行梯度下降操作,微调模型参数θ2;
S3.6:将神经网络模型预测出来的分流策略与遍历法找到的最优决策进行对比;若误差值小于等于1%,则执行步骤S3.7;反之,则返回步骤S3.5;
S3.7:针对新计算任务组合的优化过程结束,获得新神经网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010062159.1A CN111327674B (zh) | 2020-01-20 | 2020-01-20 | 一种适用于区块链工作量证明的单边缘服务器缓存方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010062159.1A CN111327674B (zh) | 2020-01-20 | 2020-01-20 | 一种适用于区块链工作量证明的单边缘服务器缓存方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111327674A CN111327674A (zh) | 2020-06-23 |
CN111327674B true CN111327674B (zh) | 2022-09-06 |
Family
ID=71168659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010062159.1A Active CN111327674B (zh) | 2020-01-20 | 2020-01-20 | 一种适用于区块链工作量证明的单边缘服务器缓存方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111327674B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112910873B (zh) * | 2021-01-27 | 2022-08-23 | 广东工业大学 | 用于区块链事务异常检测的有用工作量证明方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109388492A (zh) * | 2018-10-09 | 2019-02-26 | 浙江工业大学 | 一种在多个边缘计算服务器场景下基于模拟退火的移动区块链优化算力分配方法 |
CN109698822A (zh) * | 2018-11-28 | 2019-04-30 | 众安信息技术服务有限公司 | 基于公有区块链和加密神经网络的联合学习方法及系统 |
CN110602173A (zh) * | 2019-08-20 | 2019-12-20 | 广东工业大学 | 一种面向移动区块链的内容缓存迁移方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11249982B2 (en) * | 2018-01-19 | 2022-02-15 | Acronis International Gmbh | Blockchain-based verification of machine learning |
US20190370634A1 (en) * | 2018-06-01 | 2019-12-05 | International Business Machines Corporation | Data platform to protect security of data used by machine learning models supported by blockchain |
US11924060B2 (en) * | 2019-09-13 | 2024-03-05 | Intel Corporation | Multi-access edge computing (MEC) service contract formation and workload execution |
-
2020
- 2020-01-20 CN CN202010062159.1A patent/CN111327674B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109388492A (zh) * | 2018-10-09 | 2019-02-26 | 浙江工业大学 | 一种在多个边缘计算服务器场景下基于模拟退火的移动区块链优化算力分配方法 |
CN109698822A (zh) * | 2018-11-28 | 2019-04-30 | 众安信息技术服务有限公司 | 基于公有区块链和加密神经网络的联合学习方法及系统 |
CN110602173A (zh) * | 2019-08-20 | 2019-12-20 | 广东工业大学 | 一种面向移动区块链的内容缓存迁移方法 |
Non-Patent Citations (2)
Title |
---|
Blockchain-based edge computing for deep neural network applications;Jae-Yun Kim;《2018 Association for Computing Macltinery》;20181004;全文 * |
区块链工作量证明机制中的哈希算法探讨;杜江天;《电脑编程技巧与维护》;20181231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111327674A (zh) | 2020-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tang et al. | Computational intelligence and deep learning for next-generation edge-enabled industrial IoT | |
CN112181666B (zh) | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法 | |
CN113222179B (zh) | 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法 | |
WO2021212649A1 (zh) | 一种入侵杂草算法求解资源受限项目调度方法 | |
CN110856268B (zh) | 一种无线网络动态多信道接入方法 | |
CN111158912A (zh) | 云雾协同计算环境下一种基于深度学习的任务卸载决策方法 | |
CN112637883A (zh) | 电力物联网中对无线环境变化具有鲁棒性的联邦学习方法 | |
CN114585006B (zh) | 基于深度学习的边缘计算任务卸载和资源分配方法 | |
CN116187483A (zh) | 模型训练方法、装置、设备、介质和程序产品 | |
Shu et al. | FLAS: Computation and communication efficient federated learning via adaptive sampling | |
CN114169543A (zh) | 一种基于模型陈旧性与用户参与度感知的联邦学习算法 | |
CN111327674B (zh) | 一种适用于区块链工作量证明的单边缘服务器缓存方法 | |
CN112836822A (zh) | 基于宽度学习的联邦学习策略优化方法和装置 | |
CN116321255A (zh) | 一种无线联邦学习中高时效模型压缩和用户调度方法 | |
Wu et al. | FedProf: Optimizing federated learning with dynamic data profiling | |
CN112231009B (zh) | 一种能量捕获网络模型任务计算卸载决策与调度方法 | |
CN111275200A (zh) | 一种适用于区块链工作量证明的多边缘服务器缓存算法 | |
CN112286689A (zh) | 一种适用于区块链工作量证明的协作式分流与储存方法 | |
CN112416577A (zh) | 一种适用于区块链工作量证明的协作式智能计算分流方法 | |
CN114118381B (zh) | 基于自适应聚合稀疏通信的学习方法、装置、设备及介质 | |
CN115695429A (zh) | 面向Non-IID场景的联邦学习客户端选择方法 | |
Tian et al. | Hierarchical federated learning with adaptive clustering on non-IID data | |
Han et al. | Analysis and optimization of wireless federated learning with data heterogeneity | |
CN110933687A (zh) | 一种基于解耦的用户上下行接入方法及系统 | |
Ren et al. | Convergence Analysis and Latency Minimization for Semi-Federated Learning in Massive IoT Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |