CN111275200A - 一种适用于区块链工作量证明的多边缘服务器缓存算法 - Google Patents
一种适用于区块链工作量证明的多边缘服务器缓存算法 Download PDFInfo
- Publication number
- CN111275200A CN111275200A CN202010062160.4A CN202010062160A CN111275200A CN 111275200 A CN111275200 A CN 111275200A CN 202010062160 A CN202010062160 A CN 202010062160A CN 111275200 A CN111275200 A CN 111275200A
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- data
- training
- combination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/27—Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
- G06N5/013—Automatic theorem proving
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
一种适用于区块链工作量证明的多边缘服务器缓存算法,包括以下步骤:S1:上传用户终端的区块链工作量证明的计算任务并进行计算,采用深度学习算法获取用于训练神经网络的数据集;S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新的神经网络模型。本发明的有益效果为:本发明提供的方法在用户终端能够减少本地计算能量损耗,同时还能够解决由信道增益造成任务传输的时延,在面对新任务时,可以快速适应,在保证获利的情况下最小化任务执行总时间从而最大化系统的总收益。
Description
技术领域
本发明涉及无线通信领域,具体涉及一种适用于区块链工作量证明的多边缘服务器缓存算法。
背景技术
区块链技术建立分布式信任的能力已被广泛应用于各个领域,但区块链工作量证明任务受限于用户终端的计算算力和存储容量,随着边缘计算技术的发展,目前可以通过边缘计算技术解决算力和存储有限的问题。
针对多个用户终端和多个边缘服务器在多种区块链应用下的动态工作量证明需求,当计算任务被分流到边缘服务器时,对于每一个计算任务,执行总时间有一个规定的阈值,若超过这个时间则计算任务不能够获得收益,因此要保证在不同的信道增益下做出合理的缓存决策,尽可能的缩短计算任务执行的总时间且尽可能的小,使得最终获得的收益最高。这个过程需要考虑边缘服务器缓存任务所需哈希表带来的收益以及代价对最终执行任务后的总收益的影响。
用户终端可以减少自己的能耗,但由于传输任务通过无线信道传输,需要一定的时间,因此会造成传输时延,当信道增益改变时,需要边缘服务器还能够做出合理的缓存决策仍能使总体时间不超过计算任务规定的时间,使得计算任务有最大概率能获得收益,因此本发明提供了最优的边缘服务器对于工作量证明的计算任务需要的哈希表的缓存决策方法。
发明内容
本发明提供了一种适用于区块链工作量证明的多边缘服务器缓存算法,针对多个用户终端和多个边缘服务器在多种区块链应用下的动态工作量证明需求,能够在减少用户本地计算能量损耗的同时,保证工作量证明的计算任务能够获利,并减少计算任务的总时间。
本发明的技术方案如下所示:1、一种适用于区块链工作量证明的多边缘服务器缓存算法,包括以下步骤:
S1:上传用户终端的区块链工作量证明的计算任务并进行计算,采用深度学习算法获取用于训练神经网络的数据集;
S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;
S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新的神经网络模型;
步骤S1中所述的数据集包含区块链系统中用户工作量证明需求的不同组合,并以i,(i∈{1,2,…,I})代表不同组合;步骤S1中所述的获取数据集的具体步骤为:
S1.1:预先设置I个计算任务组合,每个组合包含N个区块链移动终端用户以及用户对应的工作量证明计算任务;
S1.2:对每个组合i(i∈I),采集F组信道增益{h1,h2,…,hN}f,f∈F;
S1.3:对每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策;
S1.4:给定某个组合i和某一组信道增益f,对每一个缓存决策,求解优化问题TMP,得到该决策对应的最大的代币收益值;
S1.5:给定某个组合i和某一组信道增益f,基于步骤S1.4中优化问题TMP计算所得代币收益值,遍历所有M*2N种二进制缓存决策,获取代币收益值的最大值,并记录最大代币收益值对应的缓存决策和信道增益(hf,sf)i;
S1.6:给定某个组合i,对所有F组信道增益,重复步骤S1.5,保存组合i下的F组的数据(hf,sf),f∈{1,2,…,F},i∈{1,2,…,I};
S1.7对于所有I个组合,重复步骤S1.6,生成每个组合的F组的数据(hf,δf)i,f∈{1,2,…,F},i∈{1,2,…,I},保存并记录整个数为DataI,作为神经网络的训练数据据集;
步骤S1.2中所述的最大的代币收益值的计算方法为:以s(n)表示用户xn的缓存决策,如果s(n)为1,则表示边缘服务器AP缓存xn需要的哈希表,如果为0则表示边缘服务器不缓存哈希表,最大的代币收益值的计算方法为:
优选的,步骤S1.5中所述信道增益(hf,sf)i中h和s各含N条数据,对应了N位用户。
优选的,所述最大的代币收益值的计算过程中的约束条件为:
优选的,步骤S2中所述的神经网络模型的训练方法为:
S2.1:建立结构相同的通用神经网络模型和局部神经网络模型,初始参数分别设置为θ0和θ1,学习率分别设定为λ和γ;
S2.2:从步骤S1训练好的数据集中,抽取一批包含Nc种组合的数据,记为数据集Databatch;
S2.6:从组合i中再重新抽取K条(h,s)数据,以计算局部神经网络模型在参数下的损失值并保存;若未将数据集Databatch中每一组合的数据进行一次神经网络的训练,则返回步骤2.4;若数据集Databatch中不同组合数据均已被使用,则执行步骤S2.7;
S2.8:利用步骤S1中的数据集完成更新后,判断数据集中的训练数据是否全部被使用;若是,则完成训练,并获得多次更新后的通用神经网络模型和其参数;反之,则返回步骤S2.2再重新抽取Nc种组合组成新的数据集Databatch进行训练。
优选的,步骤S3中所述的优化训练生成新的神经网络模芯的具体步骤为:
S3.1:新建立一个与通用神经网络模型的架构相同的神经网络模型,记其参数为θ2,将学习率设定为χ;
S3.2:将训练好的通用神经网络模型参数复制到步骤S3.1中新的神经网络模型,即令θ2=θ0;
S3.3:在新的神经网络模型的计算任务组合下,采集G组信道增益;
S3.4:基于步骤S3.3中的计算任务组合和信道增益数据,执行步骤S1.5,求出G组信道条件下对应的最佳缓存决策,以组成训练神经网络模型适应新组合问题的数据集;
S3.5:从步骤S3.4获得的新组合数据集中,随机抽取K条(h,s)数据,将信道增益h输入神经网络模型,以对应的最优决策s为标签,进行梯度下降操作,微调模型参数θ2;
S3.6:将神经网络模型预测出来的分流策略与遍历法找到的最优决策进行对比;若误差值小于等于1%,则执行步骤S3.7;反之,则返回步骤S3.5;
S3.7:针对新计算任务组合的优化过程结束,获得新神经网络模型。
更优选的,所述参数θ2的调整公式为:
本发明的有益效果为:本发明提供的方法针对多个用户终端和多个边缘服务器在多种区块链应用下的动态工作量证明需求,在用户终端能够减少本地计算能量损耗,同时还能够解决由信道增益造成任务传输的时延,通过深度学习寻找出边缘服务器最优的缓存决策方法,在面对新任务时,可以快速适应,在保证获利的情况下最小化任务执行总时间从而最大化系统的总收益;当区块链系统中用户的工作量证明计算任务组合发生变化时,能以极少的训练步数和训练数据做到快速适应。
附图说明
图1是多个用户终端多个边缘服务器和单个远程服务器和组合下的哈希表缓存决策框架示意图。
具体实施方式
下面结合附图对本发明作进一步详细描述。
本发明与移动边缘计算技术相结合,如图1所示,提供一种适用于区块链工作量证明的多边缘服务器缓存算法,包括以下步骤:在区块链与移动边缘计算结合的智能系统中,将用户终端的区块链工作量证明的计算任务上传到边缘服务器并进行计算,采用深度学习算法决定边缘服务器是否缓存计算后的区块链哈希表。首先,获取用于训练神经网络的数据集,包含区块链系统中用户工作量证明需求的不同组合,以i,(i∈{1,2,…,I})代表不同组合。本发明针对含N个用户单个边缘服务器和单个远程服务器的区块链系统,且在用户需求组合可变的情况下,研究快速适应新需求组合的深度学习算法,实现计算任务中边缘服务器的高效智能缓存。获取训练数据的具体步骤如下:
步骤1.1:预先设置I个计算任务组合,每个组合包含N个区块链移动终端用户以及用户对应的工作量证明计算任务。
步骤1.2:对于每个组合i(i∈I),采集F组信道增益{h1,h2,…,hN}f,f∈F。
步骤1.3:对于每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策。
步骤1.4:给定某个组合i和某一组信道增益f,对应一组二进制的缓存决策,求解优化问题(TMP),得到该决策对应的最大化代币收益值。用s(nm)表示用户的缓存决策,如果s(nm)为1则表示边缘服务器APm缓存需要的哈希表,如果s(nm)为0则表示边缘服务器APm不缓存哈希表,其中优化问题(TMP)如下:
其中,各参数定义如下:
ζ(nm):代币收益;
Z:缓存决策代价;
E(nm):边缘服务器m处理计算任务时消耗的能量;
上述计算过程约束条件为:
式中:
T0(nm)=Tup+Tpro
T1(nm)=(1-p)(Tup+Tpro+Tm,n)+p(Tup+Tpro)
变量:h={hn},s={sn},n∈N
其中,各参数定义如下:
cm,n:哈希表的大小;
T0(nm):缓存决策下的时间消耗;
T1(nm):不缓存决策下的时间消耗;
Tup:计算任务通过无线信道传输时间;
Tpro:计算任务在边缘服务器上计算消耗时间;
E(n):用户n边缘服务器处理其计算任务需要消耗的能量;
Z:一组用户终端作出缓存决策时所需的代币消耗;
σ2:噪声功率;
α:路径损耗指数;
Rn,m:用户n和边缘服务器APm之间的传输速率;
T:所有用户终端的任务被执行完所需时间的最大阈值;
Pn:用户终端的发射功率;
B:传输带宽;
Nm:用户终端数量;
M:边缘服务器数量;
O:缓存代价;
步骤1.5:给定某个组合i和某一组信道增益f,基于步骤1.4中优化问题(TMP)计算所得代币收益值,遍历所有M*2N种二进制缓存决策,找到收益值的最大值,并记录最大收益值对应的缓存决策和信道增益(hf,sf)i,其中h和s各含N条数据,对应N位用户。
步骤1.6:给定某个组合i,对所有F组信道增益,重复步骤1.5,保存组合i下的F组数据(hf,sf),f∈{1,2,…,F},i∈{1,2,…,I}。
步骤1.7:对于所有I个组合,重复步骤S1.6,生成每个组合的F组的数据(hf,δf)i,f∈{1,2,…,F},i∈{1,2,…,I},保存并记录整个数为DataI,作为神经网络的训练数据据集。
(2)以步骤(1)中生成的数据为标签,训练一个神经网络模型。在训练阶段,让神经网络模型遍历不同组合下的训练数据,以此更新网络参数。具体的训练步骤如下:
步骤2.1:建立一个通用神经网络模型和局部神经网络模型,两个模型结构相同且初始参数为θ0和θ1。并设定好学习率λ,γ。
式中,各参数定义如下:
θ1:局部神经网络在更新前的参数,从通用神经网络模型复制而来;
λ:内循环学习率,用于更新局部神经网络参数;
步骤2.6:从组合i中再重新抽取K条(h,s)数据。基于这些数据计算局部神经网络模型在参数下的损失值并保存下来。若未将数据集Databatch中每一组合的数据训练一次神经网络,则返回步骤2.4。若数据集Databatch中不同组合数据均已被使用,则执行步骤2.7。
式中,各参数定义如下:
θ0:通用神经网络模型的参数;
γ:外训循环学习率,用于更新通用神经网络模型参数;
步骤2.8:利用数据集DataI完成更新后,判断DataI中的训练数据是否全部被使用。是,则完成训练,获得多次更新后的通用神经网络模型和其参数θ0;否,则返回步骤2.2,重新抽取Nc种组合组成新的数据集Databatch进行训练。
(3)对一个新的区块链工作量证明计算任务组合,在训练好的神经网络模型基础上,进一步训练优化,可以快速适应新的计算任务组合,实现边缘服务器的智能缓存决策。具体的执行过程如下:
步骤3.1:新建立一个神经网络模型,与通用神经网络模型的架构相同,记其参数为θ2,并设定好学习率χ;
步骤3.2:复制训练好的通用神经网络模型参数,即θ2=θ0。
步骤3.3:在该新计算任务组合下,采集G组信道增益。
步骤3.4:基于该新计算任务组合和信道增益数据,执行步骤1.5,求出G组信道条件下对应的最佳缓存决策。组成训练神经网络模型适应新组合问题的数据集。
步骤3.5:从步骤3.4获得的新组合数据集中,随机抽取K条(h,s)数据。将信道增益h输入神经网络模型,以对应的最优决策s为标签,进行梯度下降,微调模型参数θ2。参数调整公式如下:式中,各参数定义如下:
θ2:测试神经网络的参数;
χ:利用梯度下降法更新参数时的学习率;
K:用于梯度下降的数据的数量;
L(θ2):参数为θ2的神经网络模型均方误差值;
步骤3.6:将神经网络模型预测出来的分流策略,与遍历法找到的最优决策进行对比。若误差值小于等于1%,则执行步骤3.7;若误差较大,则返回3.5,重新抽取K条(h,s)数据,训练神经网络模型。
步骤3.7:针对新计算任务组合的优化过程结束,获得新神经网络模型。在该组合下,当信道条件变化时,该模型能实时预测出多用户区块链系统的最佳缓存策略,实现智能缓存决策。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (8)
1.一种适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,包括以下步骤:
S1:上传用户终端的区块链工作量证明的计算任务并进行计算,采用深度学习算法获取用于训练神经网络的数据集;
S2:以步骤S1中获取的数据集为标签,训练通用神经网络模型和局部神经网络模型,使用训练的神经网络模型遍历训练的数据集,更新网络参数;
S3:在步骤S2中的已训练完成神经网络模型基础上,进行进一步的训练优化,获得新的神经网络模型;
步骤S1中所述的数据集包含区块链系统中用户工作量证明需求的不同组合,并以i,(i∈{1,2,…,I})代表不同组合;步骤S1中所述的获取数据集的具体步骤为:
S1.1:预先设置I个计算任务组合,每个组合包含N个区块链移动终端用户以及用户对应的工作量证明计算任务;
S1.2:对每个组合i(i∈I),采集F组信道增益{h1,h2,…,hN}f,f∈F;
S1.3:对每组信道增益{h1,h2,…,hN},生成N个用户对应的2N个二进制缓存决策;
S1.4:给定某个组合i和某一组信道增益f,对每一个缓存决策,求解优化问题TMP,得到该决策对应的最大的代币收益值;
S1.5:给定某个组合i和某一组信道增益f,基于步骤S1.4中优化问题TMP计算所得代币收益值,遍历所有M*2N种二进制缓存决策,获取代币收益值的最大值,并记录最大代币收益值对应的缓存决策和信道增益(hf,sf)i;
S1.6:给定某个组合i,对所有F组信道增益,重复步骤S1.5,保存组合i下的F组的数据(hf,sf),f∈{1,2,…,F},i∈{1,2,…,I};
S1.7:对于所有I个组合,重复步骤S1.6,生成每个组合的F组的数据(hf,δf)i,f∈{1,2,…,F},i∈{1,2,…,I},保存并记录整个数为DataI,作为神经网络的训练数据据集;
步骤S1.2中所述的最大的代币收益值的计算方法为:以s(n)表示用户xn的缓存决策,如果s(n)为1,则表示边缘服务器AP缓存xn需要的哈希表,如果为0则表示边缘服务器不缓存哈希表,最大的代币收益值的计算方法为:
2.根据权利要求1中所述的适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,步骤S1.5中所述信道增益(hf,sf)i中h和s各含N条数据,对应了N位用户。
4.根据权利要求1中所述的适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,步骤S2中所述的神经网络模型的训练方法为:
S2.1:建立结构相同的通用神经网络模型和局部神经网络模型,初始参数分别设置为θ0和θ1,学习率分别设定为λ和γ;
S2.2:从步骤S1训练好的数据集中,抽取一批包含Nc种组合的数据,记为数据集Databatch;
S2.6:从组合i中再重新抽取K条(h,s)数据,以计算局部神经网络模型在参数下的损失值并保存;若未将数据集Databatch中每一组合的数据进行一次神经网络的训练,则返回步骤2.4;若数据集Databatch中不同组合数据均已被使用,则执行步骤S2.7;
S2.8:利用步骤S1中的数据集完成更新后,判断数据集中的训练数据是否全部被使用;若是,则完成训练,并获得多次更新后的通用神经网络模型和其参数;反之,则返回步骤S2.2再重新抽取Nc种组合组成新的数据集Databatch进行训练。
7.根据权利要求1中所述的适用于区块链工作量证明的多边缘服务器缓存算法,其特征在于,步骤S3中所述的优化训练生成新的神经网络模芯的具体步骤为:
S3.1:新建立一个与通用神经网络模型的架构相同的神经网络模型,记其参数为θ2,将学习率设定为χ;
S3.2:将训练好的通用神经网络模型参数复制到步骤S3.1中新的神经网络模型,即令θ2=θ0;
S3.3:在新的神经网络模型的计算任务组合下,采集G组信道增益;
S3.4:基于步骤S3.3中的计算任务组合和信道增益数据,执行步骤S1.5,求出G组信道条件下对应的最佳缓存决策,以组成训练神经网络模型适应新组合问题的数据集;
S3.5:从步骤S3.4获得的新组合数据集中,随机抽取K条(h,s)数据,将信道增益h输入神经网络模型,以对应的最优决策s为标签,进行梯度下降操作,微调模型参数θ2;
S3.6:将神经网络模型预测出来的分流策略与遍历法找到的最优决策进行对比;若误差值小于等于1%,则执行步骤S3.7;反之,则返回步骤S3.5;
S3.7:针对新计算任务组合的优化过程结束,获得新神经网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010062160.4A CN111275200A (zh) | 2020-01-20 | 2020-01-20 | 一种适用于区块链工作量证明的多边缘服务器缓存算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010062160.4A CN111275200A (zh) | 2020-01-20 | 2020-01-20 | 一种适用于区块链工作量证明的多边缘服务器缓存算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111275200A true CN111275200A (zh) | 2020-06-12 |
Family
ID=70998895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010062160.4A Pending CN111275200A (zh) | 2020-01-20 | 2020-01-20 | 一种适用于区块链工作量证明的多边缘服务器缓存算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111275200A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112910873A (zh) * | 2021-01-27 | 2021-06-04 | 广东工业大学 | 用于区块链事务异常检测的有用工作量证明方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018129356A1 (en) * | 2017-01-06 | 2018-07-12 | Highwinds Holdings, Inc. | Cryptographic network protocol escalation path |
US20190012595A1 (en) * | 2017-07-07 | 2019-01-10 | Pointr Data, Inc. | Neural network consensus using blockchain |
CN109302405A (zh) * | 2018-10-31 | 2019-02-01 | 北京邮电大学 | 基于边缘计算的工业数据检测区块链网络架构及检测方法 |
WO2019070357A1 (en) * | 2017-10-06 | 2019-04-11 | Siemens Aktiengesellschaft | METHOD AND SYSTEM FOR PLATFORM OF SECURE AND PRIVATE TERM OPERATIONS IN TRANSACTIVE MICROARRAYS |
CN110312231A (zh) * | 2019-06-28 | 2019-10-08 | 重庆邮电大学 | 一种车联网中基于移动边缘计算的内容缓存决策和资源分配联合优化方法 |
-
2020
- 2020-01-20 CN CN202010062160.4A patent/CN111275200A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018129356A1 (en) * | 2017-01-06 | 2018-07-12 | Highwinds Holdings, Inc. | Cryptographic network protocol escalation path |
US20190012595A1 (en) * | 2017-07-07 | 2019-01-10 | Pointr Data, Inc. | Neural network consensus using blockchain |
WO2019070357A1 (en) * | 2017-10-06 | 2019-04-11 | Siemens Aktiengesellschaft | METHOD AND SYSTEM FOR PLATFORM OF SECURE AND PRIVATE TERM OPERATIONS IN TRANSACTIVE MICROARRAYS |
CN109302405A (zh) * | 2018-10-31 | 2019-02-01 | 北京邮电大学 | 基于边缘计算的工业数据检测区块链网络架构及检测方法 |
CN110312231A (zh) * | 2019-06-28 | 2019-10-08 | 重庆邮电大学 | 一种车联网中基于移动边缘计算的内容缓存决策和资源分配联合优化方法 |
Non-Patent Citations (1)
Title |
---|
李彬等: ""基于异构区块链的多能系统交易体系及关键技术"" * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112910873A (zh) * | 2021-01-27 | 2021-06-04 | 广东工业大学 | 用于区块链事务异常检测的有用工作量证明方法及系统 |
CN112910873B (zh) * | 2021-01-27 | 2022-08-23 | 广东工业大学 | 用于区块链事务异常检测的有用工作量证明方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tang et al. | Computational intelligence and deep learning for next-generation edge-enabled industrial IoT | |
CN112181666B (zh) | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法 | |
CN111382844B (zh) | 一种深度学习模型的训练方法及装置 | |
CN113255004B (zh) | 一种安全且高效的联邦学习内容缓存方法 | |
CN116187483A (zh) | 模型训练方法、装置、设备、介质和程序产品 | |
CN114169543A (zh) | 一种基于模型陈旧性与用户参与度感知的联邦学习算法 | |
CN112836822A (zh) | 基于宽度学习的联邦学习策略优化方法和装置 | |
CN116226901A (zh) | 基于差分隐私的自适应Top-k扰动混洗联邦学习方法及系统 | |
CN111327674B (zh) | 一种适用于区块链工作量证明的单边缘服务器缓存方法 | |
Wu et al. | FedProf: Optimizing federated learning with dynamic data profiling | |
CN111275200A (zh) | 一种适用于区块链工作量证明的多边缘服务器缓存算法 | |
CN113194031B (zh) | 雾无线接入网内结合干扰抑制的用户聚类方法及系统 | |
CN112231009B (zh) | 一种能量捕获网络模型任务计算卸载决策与调度方法 | |
CN112286689A (zh) | 一种适用于区块链工作量证明的协作式分流与储存方法 | |
CN112416577A (zh) | 一种适用于区块链工作量证明的协作式智能计算分流方法 | |
CN115695429A (zh) | 面向Non-IID场景的联邦学习客户端选择方法 | |
Singhal et al. | Greedy Shapley Client Selection for Communication-Efficient Federated Learning | |
CN114118381B (zh) | 基于自适应聚合稀疏通信的学习方法、装置、设备及介质 | |
CN116010832A (zh) | 联邦聚类方法、装置、中心服务器、系统和电子设备 | |
Han et al. | Analysis and optimization of wireless federated learning with data heterogeneity | |
Tian et al. | Hierarchical federated learning with adaptive clustering on non-IID data | |
CN117994635B (zh) | 一种噪声鲁棒性增强的联邦元学习图像识别方法及系统 | |
CN117196070B (zh) | 一种面向异构数据的双重联邦蒸馏学习方法及装置 | |
CN117692939B (zh) | 一种动态通信环境下的客户端调度方法 | |
CN114401491B (zh) | 一种设备到设备通信中的资源分配方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |