CN112613601A - 神经网络模型更新方法、设备及计算机存储介质 - Google Patents
神经网络模型更新方法、设备及计算机存储介质 Download PDFInfo
- Publication number
- CN112613601A CN112613601A CN202011557239.0A CN202011557239A CN112613601A CN 112613601 A CN112613601 A CN 112613601A CN 202011557239 A CN202011557239 A CN 202011557239A CN 112613601 A CN112613601 A CN 112613601A
- Authority
- CN
- China
- Prior art keywords
- neural network
- model
- hash value
- voting
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000003062 neural network model Methods 0.000 title claims abstract description 52
- 238000012360 testing method Methods 0.000 claims abstract description 86
- 238000012549 training Methods 0.000 claims abstract description 72
- 238000011156 evaluation Methods 0.000 claims abstract description 25
- 238000013528 artificial neural network Methods 0.000 claims abstract description 23
- 238000004806 packaging method and process Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000010276 construction Methods 0.000 claims description 9
- 230000003247 decreasing effect Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 21
- 230000007246 mechanism Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 206010051602 Laziness Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/64—Protecting data integrity, e.g. using checksums, certificates or signatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/04—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
- H04L63/0407—Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the identity of one or more communicating identities is hidden
- H04L63/0421—Anonymous communication, i.e. the party's identifiers are hidden from the other party or parties, e.g. using an anonymizer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/12—Applying verification of the received information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
- H04L9/3236—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions
- H04L9/3239—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions involving non-keyed hash functions, e.g. modification detection codes [MDCs], MD5, SHA or RIPEMD
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
- H04L9/3247—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials involving digital signatures
- H04L9/3255—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials involving digital signatures using group based signatures, e.g. ring or threshold signatures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
- H04L9/3263—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials involving certificates, e.g. public key certificate [PKC] or attribute certificate [AC]; Public key infrastructure [PKI] arrangements
- H04L9/3265—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials involving certificates, e.g. public key certificate [PKC] or attribute certificate [AC]; Public key infrastructure [PKI] arrangements using certificate chains, trees or paths; Hierarchical trust model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/50—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols using hash chains, e.g. blockchains or hash trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L2463/00—Additional details relating to network architectures or network communication protocols for network security covered by H04L63/00
- H04L2463/121—Timestamp
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Computer Hardware Design (AREA)
- Bioethics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开一种神经网络模型更新方法、设备及计算机存储介质,该方法包括:基于骨架神经网络,随机生成预设数量个子神经网络作为区块链中的节点;节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集;利用所述训练集对各个节点分别进行训练,生成训练好的模型,并将训练好的模型打包为模型事务分享到区块链中;使用投票所选测试集对模型事务进行测试,生成测试结果;当测试结果优于基准评价,则测试结果对应的子神经网络模型作为有效选票;对有效选票对应的上一个区块进行投票,选出一致区块并对所有节点进行更新;本发明解决神经网络不能适应用户动态变化问题,实现不依赖于第三方的模型更新。
Description
技术领域
本发明涉及区块链领域及机器学习领域,尤其涉及一种神经网络模型更新方法、设备及计算机存储介质。
背景技术
神经网络的快速发展和优异表现让其在许多领域得到应用,如购物软件、搜索软件开始使用机器学习来改善用户体验。软件公司训练机器学习模型的数据一般来自用户收集或公开数据集,收集用户的数据存在用户隐私泄露的风险,而且训练过程中一般未考虑数据时间序列属性,训练的模型也不能适应用户动态变化。同时机器学习模型的更新完全依赖软件公司,存在使用软件的用户群体已经变更,但软件中的模型未及时更新的情况。
且神经网络存在一定的冗余性,可以找到一个规模小得多的子网络替代当前模型,以获得相同的模型表达能力。神经网络模型的随机划分有很多方法,比如通过模型压缩和删减选取骨架网络作为训练的基础,同时每个节点选取一些其他神经节点进行探索训练。
区块链作为一个分布式可信数据库,具有去中心化、可编程等特点,解决了多方参与间的共识问题。共识机制是区块链的核心,常见的共识机制有PoW,PoS,DPoS,PBFT。其中比特币采用的PoW是最广泛认可的共识机制。比特币的工作量证明机制本质上是节点通过计算一个特定哈希值作为工作量证明来获得记账权,使得全网达成一致。为了保证区块链的安全,大量的算力用于计算无意义的哈希值。
发明内容
有鉴于此,提供一种神经网络模型更新方法、设备及计算机存储介质,解决现有技术中神经网络模型不能适应用户动态变化及数据变化的问题。
本申请实施例提供了一种神经网络模型更新方法,所述方法包括:
基于骨架神经网络,随机生成预设数量个子神经网络模型作为区块链中的节点;
所述节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集;
利用所述训练集对各个节点分别进行训练,生成训练好的模型,并将所述训练好的模型打包为模型事务分享到区块链中;
使用投票所选测试集对所述模型事务进行测试,生成测试结果;
当所述测试结果优于基准评价,则所述测试结果对应的所述子神经网络模型作为有效选票;
对所述有效选票对应的上一个区块进行投票,选出一致区块并对所有节点进行更新。
在一实施例中,所述节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集,包括:
所述节点使用环签名将所述本地数据集打包成数据事务匿名分享到区块链中;其中,所述数据事务包括事务哈希值、数据哈希值、时间戳、环签名以及公钥集合;
利用比特币中新区块的哈希值作为数据集划分的随机种子对所述数据集进行统一划分,生成训练集和测试集。
在一实施例中,所述投票所选测试集的获取过程,包括:
对所述模型事务训练所用的训练集进行投票,获得得票最多的训练集对应的数据集;
根据所述数据集,获得测试集;其中,所述数据集包括一个测试集与一个训练集。
在一实施例中,所述基准评价,包括:
利用所述投票所选的测试集,对上一个区块的最优模型进行测试,获得基准评价。
在一实施例中,所述模型事务至少由以下部分构成:
事务基础部分包括事务哈希值、时间戳、签名和公钥;
模型和工作量证明部分包括模型哈希值、模型评价和模型训练集的默克尔根;
投票部分包括上一区块的哈希值、数据集的默克尔根。
在一实施例中,所述区块包括区块哈希值、上一个区块的哈希值、区块最优模型哈希值、时间戳和投票结果的默克尔根。
在一实施例中,所述投票结果的默克尔根的构建过程,包括:
按照有效选票中的上一个区块的哈希值计票数量递减的顺序,将所述上一个区块的哈希值依次作为投票结果默克尔树的叶子节点进行保存,并计算叶子节点哈希值;
对两两叶子节点哈希值进行哈希计算,生成第一子哈希值;
对两两所述第一子哈希值进行哈希计算,生成投票结果的默克尔根;其中,所述投票结果默克尔树的叶子节点还包含有效选票的默克尔根。
在一实施例中,所述有效选票的默克尔根的构建过程,包括:
按照有效选票的测试结果递减的顺序,将所述有效选票对应的哈希值依次作为有效选票的默克尔树的叶子节点,并计算两两叶子节点的哈希值,生成第二子哈希值;
计算两两所述第二子哈希值进行哈希计算,生成有效选票的默克尔根。
为实现上述目的,还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有神经网络模型更新方法程序,所述神经网络模型更新方法程序被处理器执行时实现上述任一所述的方法的步骤。
为实现上述目的,还提供一种神经网络模型更新设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的神经网络模型更新方法程序,所述处理器执行所述神经网络模型更新方法程序时实现权利要求1-10任一所述的方法的步骤。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:基于骨架神经网络,随机生成预设数量个子神经网络作为区块链中的节点;本步骤中根据骨架神经网络进行随机探索,生成多个子神经网络作为区块链中的节点,为后续进行数据及模型共享奠定基础。所述节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集;本步骤保证本地数据集的安全性及节点的隐私性。利用所述训练集对各个节点分别进行训练,生成训练好的模型,并将所述训练好的模型打包为模型事务分享到区块链中;本步骤的模型事务保证模型数据的不可篡改性。使用所述投票所选测试集对所述模型事务进行测试,生成测试结果;本步骤是后续进行模型评价的必要条件。当所述测试结果优于基准评价,则所述测试结果对应的所述子神经网络模型作为有效选票;对所述有效选票对应的上一个区块进行投票,选出一致区块并对所有节点进行更新。本步骤中利用区块链中的工作量证明机制进行投票,其中有效选票为具有工作量证明的节点,选出一致区块并对所有节点进行更新。本发明解决现有技术中神经网络模型不能适应用户动态变化的问题,实现不依赖于第三方的模型更新。
附图说明
图1为本申请实施例中涉及的神经网络模型更新方法的硬件架构示意图;
图2为本申请神经网络模型更新方法的第一实施例的流程示意图;
图3为神经网络随机划分示意图;
图4为本申请神经网络模型更新方法的第一实施例步骤S120的流程示意图;
图5为一个数据事务的示意图;
图6为投票所选测试集的获取过程示意图;
图7为一个模型事务的示意图;
图8为一个区块的示意图;
图9为投票结果的默克尔根的构建过程的示意图;
图10为有效选票的默克尔根的构建过程的示意图;
图11为模型训练集的默克尔根的构建过程的示意图;
图12为数据集的默克尔根的构建过程的示意图;
图13为本申请神经网络模型更新方法实验示意图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的主要解决方案是:基于骨架神经网络,随机生成预设数量个子神经网络作为区块链中的节点;节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集;利用所述训练集对各个节点分别进行训练,生成训练好的模型,并将训练好的模型打包为模型事务分享到区块链中;使用投票所选测试集对模型事务进行测试,生成测试结果;当测试结果优于基准评价,则测试结果对应的子神经网络模型作为有效选票;对有效选票对应的上一个区块进行投票,选出一致区块并对所有节点进行更新;本发明解决神经网络模型不能适应用户动态变化的问题,实现不依赖于第三方的模型更新。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
本申请涉及一种神经网络模型更新设备010包括如图1所示:至少一个处理器012、存储器011。
处理器012可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器012中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器012可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器011,处理器012读取存储器011中的信息,结合其硬件完成上述方法的步骤。
可以理解,本发明实施例中的存储器011可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ReadOnly Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRateSDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambus RAM,DRRAM)。本发明实施例描述的系统和方法的存储器011旨在包括但不限于这些和任意其它适合类型的存储器。
参照图2,图2为本申请神经网络模型更新方法的第一实施例,所述方法包括:
步骤S110:基于骨架神经网络,随机生成预设数量个子神经网络模型作为区块链中的节点。
如图3所示骨架神经网络包括输入/输出节点、骨架节点、不更新节点以及更新节点;
在本实施例中以骨架神经网络作为基础,随机探索生成子网络;如图3中子网络1中由两个输入节点、三个骨架节点、两个更新节点、三个不更新节点以及1个输出节点组成;子网络2中由两个输入节点、三个骨架节点、三个更新节点、两个不更新节点以及1个输出节点组成;子网络3中由两个输入节点、三个骨架节点、三个更新节点、两个不更新节点以及1个输出节点组成;其中子网络2和子网络3组成的节点相同,但各个节点基于骨架神经网络中的位置并不形同,所以在此随机生成的子网络的节点及节点的位置并不限定,可以是是骨架神经网络中的任意节点及节点的任意位置构成。
其中预设数量在此也不作限定,根据对应的业务需求进行动态调整。
步骤S120:所述节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集。
环签名(ring signature)是一种数字签名方案,最初由Rivest等人提出,环签名是一种简化的群签名,环签名中只有环成员没有管理者,不需要环成员间的合作。环签名是一个能够实现签名者无条件匿名的签名方案,是一种特殊的群签名,没有可信中心,没有群的建立过程,对于验证者来说,签名人是完全正确匿名的。环签名具有正确性、无条件匿名性以及不可伪造性。
统一划分可以是所有节点的本地数据集划分标准必然是一致的。
所有数据的划分,在所有节点是必然一致的。也就是说,如果一个数据被划分了到测试集,那么在所有节点都会被划分到测试集。
(如果划分不一致,可能存在有的节点使用测试数据作为训练数据)
统一划分规则,保证了训练数据的有效性。
本地数据集是节点本地搜集的数据集,其中,本地数据集可以在训练过程中发生变化。
所述区块链中的数据集可以是所有节点使用环签名分享的本地数据集的总和,也可以是节点使用环签名分享的本地数据集的组合,在此不作限定。
步骤S130:利用所述训练集对各个节点分别进行训练,生成训练好的模型,并将所述训练好的模型打包为模型事务分享到区块链中。
利用区块链去中心化的性质,将模型事务分享到区块链中,保证模型事务的不可篡改,从而保证当前区块中训练好的模型的正确性。
步骤S140:使用投票所选测试集对所述模型事务进行测试,生成测试结果。
使用投票所选测试集对各个节点训练好的模型进行测试,生成测试结果,测试结果可以用正确率、精确度以及F1值来衡量,也可以是其他的衡量标准,在此不作限定。
步骤S150:当所述测试结果优于基准评价,则所述测试结果对应的所述子神经网络模型作为有效选票。
当测试结果中的正确率或者精确度或者F1值越高,则可以说明对应的子网络模型的算力越高。
若子神经网络模型作为有效选票,则代表该节点为具有工作量证明的节点。
工作量证明(Proof Of Work,简称POW),是一种对应服务与资源滥用、或是阻断服务攻击的经济对策。一般是要求用户进行一些耗时适当的复杂运算,并且答案能被服务方快速验算,以此耗用的时间、设备与能源做为担保成本,以确保服务与资源是被真正的需求所使用。简单理解就是一份证明,用来确认你做过一定量的工作。监测工作的整个过程通常是极为低效的,而通过对工作的结果进行认证来证明完成了相应的工作量,则是一种非常高效的方式。
共识机制还可以是PoS、DPoS、PBFT等,在此不作限定。
比特币的工作量证明机制本质是节点通过计算一个特定哈希值作为工作量证明来获得记账权,使得全网达成一致,从而保证区块链的安全。
步骤S160:对所述有效选票对应的上一个区块进行投票,选出一致区块并对所有节点进行更新。
具有工作量证明的节点才可以具有投票权,链中采用单节点单票制对区块进行投票,得票最多的区块作为一致新区块,节点自行打包新区块到模型链中,从而单节点无法作恶和偷懒。
一致区块中包含最优模型哈希值,可以作为对所有节点进行更新的依据。
上述实施例中,存在的有益效果为:基于骨架神经网络,随机生成预设数量个子神经网络作为区块链中的节点;本步骤中根据骨架神经网络进行随机探索,生成多个子神经网络作为区块链中的节点,为后续进行数据及模型共享奠定基础。所述节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集;本步骤保证本地数据集的安全性及节点的隐私性。利用所述训练集对各个节点分别进行训练,生成训练好的模型,并将所述训练好的模型打包为模型事务分享到区块链中;本步骤的模型事务保证模型数据的不可篡改性。使用所述投票所选测试集对所述模型事务进行测试,生成测试结果;本步骤是后续进行模型评价的必要条件。当所述测试结果优于基准评价,则所述测试结果对应的所述子神经网络模型作为有效选票;对所述有效选票对应的上一个区块进行投票,选出一致区块并对所有节点进行更新。本步骤中利用区块链中的工作量证明机制进行投票,其中有效选票为具有工作量证明的节点,选出一致区块并对所有节点进行更新。本发明解决现有技术中神经网络模型不能适应用户动态变化的问题,实现不依赖于第三方的模型更新。
参照图4,图4为本申请神经网络模型更新方法的第一实施例步骤S120的具体实施步骤,所述节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集,包括:
步骤S121:所述节点使用环签名将所述本地数据集打包成数据事务匿名分享到区块链中;其中,所述数据事务包括事务哈希值、数据哈希值、时间戳、环签名以及公钥集合;
数据事务可以是本实施例中一种数据的分享方式,将数据相关的信息分享到区块链中。
如图5所示为一个数据事务的示意图。
步骤S122:利用比特币中新区块的哈希值作为数据集划分的随机种子对所述数据集进行统一划分,生成训练集和测试集。
监听比特币网络中新区块的产生,一旦收到新区块,就使用新区块的哈希值作为随机种子进行数据集划分。
一般而言,比特币约每10分钟产生一个新区块,但是确切的产生时间是未知的,是一个概率事件。
区块链中的所有节点的本地数据集有新的数据加入,或者是删减了本地数据集的部分,则区块链会对当前变化后的本地数据集重新使用统一的随机种子进行划分,生成新的区块中的训练集和测试集。
在上述实施例中,存在的有益效果为:给出了所述节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集的具体实施步骤,将数据事务分享到区块链中,保证数据事务的正确性及安全性。
参照图6,图6为本申请神经网络模型更新方法中投票所选测试集的获取过程,包括:
步骤S131a:对所述模型事务训练所用的训练集进行投票,获得得票最多的训练集对应的数据集;
在数据事务分享的过程中可能存在如下情况,导致模型事务所有的训练集不同:
1.节点因为故障可能没有收到部分数据;
2.节点分享的数据集没有扩散到大部分节点,就进行了新区块产生;
所以需要进行训练集投票来选出使用最多的训练集。
步骤S132a:根据所述数据集,获得测试集;其中,所述数据集包括一个测试集与一个训练集。
根据选出的使用最多的训练集,获得对应的数据集,从而获得测试集。
在本实施例中,根据投票所选测试集对模型事务进行测试,获得测试结果,来衡量模型事务是否为有效选票,本步骤中测试集的投票正确,保证模型事务是否为有效选票的正确性。
在其中一个实施例中,所述基准评价,包括:
利用所述投票所选的测试集,对上一个区块的最优模型进行测试,获得基准评价。
在本实施例中,基准评价的正确性保证有效选票的正确性,从而保证一致区块投票结果的正确性。
在其中一个实施例中,所述模型事务至少由以下部分构成:
事务基础部分包括事务哈希值、时间戳、签名和公钥;
模型和工作量证明部分包括模型哈希值、模型评价和模型训练集的默克尔根;
投票部分包括上一区块的哈希值、数据集的默克尔根。
如图7所示为一个模型事务的组成。
哈希值可以通过一定的哈希算法(典型的有MD5,SHA-1等,在此不作限定),将一段较长的数据映射为较短小的数据,这段小数据就是大数据的哈希值。
时间戳是使用数字签名技术产生的数据,签名的对象包括了原始文件信息、签名参数、签名时间等信息。时间戳系统用来产生和管理时间戳,对签名对象进行数字签名产生时间戳,以证明原始文件在签名时间之前已经存在。
签名可以是数字签名,是只有信息的发送者才能产生的别人无法伪造的一段数字串,这段数字串同时也是对信息的发送者发送信息真实性的一个有效证明。
数字签名有两个基本要求:
1、可用性:私钥加密之后的信息可以被公钥解密,并且得到正确的结果。
2、不可逆向性:即使拿到无数的密文,也无法获取到私钥的内容,更无法伪造私钥对其他信息进行加密。
公钥是与私钥算法一起使用的密钥对的非秘密一半。公钥通常用于加密会话密钥、验证数字签名,或加密可以用相应的私钥解密的数据。公钥和私钥是通过一种算法得到的一个密钥对(即一个公钥和一个私钥),其中的一个向外界公开,称为公钥;另个自己保留,称为私钥。
在其中一个实施例中,所述区块包括区块哈希值、上一个区块的哈希值、区块最优模型哈希值、时间戳和投票结果的默克尔根。
如图8所示为一个区块的组成;其中图8中的虚线是包含的、含有的关系。
相同提名的选票组成一个默克尔树,此默克尔树的根即代表此种提名所有投票的选票。然后,这些默克尔根的根,依据包括选票的数量递减排序,再作为叶子节点,组成一个新的默克尔树,作为最终的投票结果,保存在区块中。
参照图9,图9为所述投票结果的默克尔根的构建过程,包括:
步骤S210:按照有效选票中的上一个区块的哈希值计票数量递减的顺序,将所述上一个区块的哈希值依次作为投票结果默克尔树的叶子节点进行保存,并计算叶子节点哈希值。
步骤S220:对两两叶子节点哈希值进行哈希计算,生成第一子哈希值。
步骤S230:对两两所述第一子哈希值进行哈希计算,生成投票结果的默克尔根;其中,所述投票结果默克尔树的叶子节点还包含有效选票的默克尔根。
在上述实施例中存在的有益效果为:具体给出了投票结果的默克尔根的构建过程,保证投票结果的正确性和安全性。
参照图10,图10为所述有效选票的默克尔根的构建过程,包括:
步骤S310:按照有效选票的测试结果递减的顺序,将所述有效选票对应的哈希值依次作为有效选票的默克尔树的叶子节点,并计算两两叶子节点的哈希值,生成第二子哈希值。
步骤S320:计算两两所述第二子哈希值进行哈希计算,生成有效选票的默克尔根。
在上述实施例中存在的有益效果为:具体给出了有效选票的默克尔根的构建过程,保证有效选票的正确性和安全性。
参照图11,图11为所述模型训练集的默克尔根的构建过程,所述模型训练集的默克尔根的构建过程,包括:
步骤S410:以多个所述训练集中的数据为叶子节点,计算叶子节点哈希值;
步骤S420:对两两叶子节点哈希值进行哈希计算,生成第三子哈希值;
步骤S430:对两两所述第三子哈希值进行哈希计算,生成模型训练集的默克尔根。
在上述实施例中存在的有益效果为:具体给出了模型训练集的默克尔根的构建过程,保证模型训练集的正确性和安全性。
参照图12,图12为所述数据集的默克尔根的构建过程,包括
步骤S510:以多个所述训练集中的数据为叶子节点,计算叶子节点哈希值。
步骤S520:对两两叶子节点哈希值进行哈希计算,生成训练集的默克尔根。
步骤S530:以多个所述测试集中的数据为叶子节点,计算叶子节点哈希值。
步骤S540:对两两叶子节点哈希值进行哈希计算,生成测试集的默克尔根。
步骤S550:对所述训练集的默克尔根与测试集的默克尔根进行哈希计算,生成数据集的默克尔根。
在上述实施例中存在的有益效果为:具体给出了数据集的默克尔根的构建过程,保证数据集的正确性和安全性。
以下为本发明的一个优选实例说明,本发明的应用范围不限于下述实施例:
本实例使用5500种计算机字体生成数据集。每种计算机字体视作一个用户字体,字体的拉伸、倾斜、缩放等变换视作用户手写体的噪声。在每轮区块生成中,对2200种字体进行25次变换,每个数字生成55000个28*28像素单通道图片,其中85%作为训练数据,15%作为测试数据。新区块产生后,使用全新的字体替换掉一半旧字体,再次生成新一轮的数据集,模拟区块链中用户的动态变化。
节点模型训练使用deeplearning4j框架,设置了一个卷积神经网络作为骨架网络,同时设置了10个节点进行探索训练。每轮区块生成后选出最优模型(即图7中最优模型哈希值),在下一轮模型训练时,节点会参考上一个区块的训练结果对模型进行调整并重新开始训练。实验总共进行了5轮区块生成(如图13),采用了Accuracy,Precision,F1 Score作为评价指标,下表为每个区块中最优模型在测试集上的评价。从表中可以看到,随着数据集的改变(即实际情况下用户的动态变化),上一个区块的最优模型在新数据集中的预测结果明显下降,最优模型的评价较前一个区块最优模型的评价有明显提升。如在第二个区块中,第一个区块的最优模型准确率从96.06%下降到95.34%,而得益于基于骨架神经网络模型的探索训练,此区块中的准确率提升到96.72%。
在时间效率方面,每个区块最优模型的训练时间分别为391s、471s、420s、515s、605s。模型验证平均耗时为4.52s,平均每轮投票共识共计花费90.40s。由于模型竞争阶段持续时间较长,所以节点有足够的时间进行模型训练和投票。目前单节点对整个测试集进行验证,如果多节点合作,每个节点分别验证测试集的一部分,则可以大幅减少模型验证耗时,提高共识效率。
在实际应用中,本发明区块链中的节点不断探索新模型来替代之前产生的模型,当链中用户群体变化不大时,链中的模型趋于稳定。当链中用户群体变化较大时,链中的模型精度会先下降(这由最优模型的泛化性决定),然后随着模型链中的区块不断增多逐渐趋于稳定。在5轮区块的生成过程中最优模型的评价在不断提高,说明使用本发明的区块链中多节点模型探索有较好的效果,不仅能适应数据集的动态变化,还提高了模型的评价。
本申请还提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有神经网络模型更新方法程序,所述神经网络模型更新方法程序被处理器执行时实现上述任一所述的方法的步骤。
本申请还提供一种神经网络模型更新设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的神经网络模型更新方法程序,所述处理器执行所述神经网络模型更新方法程序时实现上述任一所述的方法的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种神经网络模型更新方法,其特征在于,所述方法包括:
基于骨架神经网络,随机生成预设数量个子神经网络模型作为区块链中的节点;
所述节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集;
利用所述训练集对各个节点分别进行训练,生成训练好的模型,并将所述训练好的模型打包为模型事务分享到区块链中;
使用投票所选测试集对所述模型事务进行测试,生成测试结果;
当所述测试结果优于基准评价,则所述测试结果对应的所述子神经网络模型作为有效选票;
对所述有效选票对应的上一个区块进行投票,选出一致区块并对所有节点进行更新。
2.如权利要求1所述的神经网络模型更新方法,其特征在于,所述节点使用环签名将本地数据集分享到区块链中,并对区块链中的数据集进行统一划分,生成训练集和测试集,包括:
所述节点使用环签名将所述本地数据集打包成数据事务匿名分享到区块链中;其中,所述数据事务包括事务哈希值、数据哈希值、时间戳、环签名以及公钥集合;
利用比特币中新区块的哈希值作为数据集划分的随机种子对数据集进行统一划分,生成训练集和测试集。
3.如权利要求1所述的神经网络模型更新方法,其特征在于,所述投票所选测试集的获取过程,包括:
对所述模型事务训练所用的训练集进行投票,获得得票最多的训练集对应的数据集;
根据所述数据集,获得测试集;其中,所述数据集包括一个测试集与一个训练集。
4.如权利要求1所述的神经网络模型更新方法,其特征在于,所述基准评价,包括:
利用所述投票所选的测试集,对上一个区块的最优模型进行测试,获得基准评价。
5.如权利要求1所述的神经网络模型更新方法,其特征在于,所述模型事务至少由以下部分构成:
事务基础部分包括事务哈希值、时间戳、签名和公钥;
模型和工作量证明部分包括模型哈希值、模型评价和模型训练集的默克尔根;
投票部分包括上一区块的哈希值、数据集的默克尔根。
6.如权利要求1所述的神经网络模型更新方法,其特征在于,所述区块包括区块哈希值、上一个区块的哈希值、区块最优模型哈希值、时间戳和投票结果的默克尔根。
7.如权利要求6所述的神经网络模型更新方法,其特征在于,所述投票结果的默克尔根的构建过程,包括:
按照有效选票中的上一个区块的哈希值计票数量递减的顺序,将所述上一个区块的哈希值依次作为投票结果默克尔树的叶子节点进行保存,并计算叶子节点哈希值;
对两两叶子节点哈希值进行哈希计算,生成第一子哈希值;
对两两所述第一子哈希值进行哈希计算,生成投票结果的默克尔根;其中,所述投票结果默克尔树的叶子节点还包含有效选票的默克尔根。
8.如权利要求7所述的神经网络模型更新方法,其特征在于,所述有效选票的默克尔根的构建过程,包括:
按照有效选票的测试结果递减的顺序,将所述有效选票对应的哈希值依次作为有效选票的默克尔树的叶子节点,并计算两两叶子节点的哈希值,生成第二子哈希值;
计算两两所述第二子哈希值进行哈希计算,生成有效选票的默克尔根。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有神经网络模型更新方法程序,所述神经网络模型更新方法程序被处理器执行时实现权利要求1-8任一所述的方法的步骤。
10.一种神经网络模型更新设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的神经网络模型更新方法程序,所述处理器执行所述神经网络模型更新方法程序时实现权利要求1-8任一所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011557239.0A CN112613601B (zh) | 2020-12-24 | 2020-12-24 | 神经网络模型更新方法、设备及计算机存储介质 |
US17/447,612 US11949797B2 (en) | 2020-12-24 | 2021-09-14 | Neural network model update method and device, and computer storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011557239.0A CN112613601B (zh) | 2020-12-24 | 2020-12-24 | 神经网络模型更新方法、设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112613601A true CN112613601A (zh) | 2021-04-06 |
CN112613601B CN112613601B (zh) | 2024-01-16 |
Family
ID=75245236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011557239.0A Active CN112613601B (zh) | 2020-12-24 | 2020-12-24 | 神经网络模型更新方法、设备及计算机存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11949797B2 (zh) |
CN (1) | CN112613601B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113254980A (zh) * | 2021-07-07 | 2021-08-13 | 南京可信区块链与算法经济研究院有限公司 | 一种用于深度学习的工作量证明共识方法及系统 |
CN113792872A (zh) * | 2021-08-24 | 2021-12-14 | 浙江数秦科技有限公司 | 基于区块链的神经网络训练容器和托管训练方法 |
CN113792873A (zh) * | 2021-08-24 | 2021-12-14 | 浙江数秦科技有限公司 | 一种基于区块链的神经网络模型托管训练系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11956368B2 (en) * | 2021-12-17 | 2024-04-09 | Advanced Micro Devices, Inc. | Enhanced method for a useful blockchain consensus |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108234127A (zh) * | 2016-12-22 | 2018-06-29 | 中国移动通信集团公司 | 一种基于区块链的物联方法及装置 |
CN109376534A (zh) * | 2018-09-26 | 2019-02-22 | 百度在线网络技术(北京)有限公司 | 用于检测应用的方法和装置 |
CN109543075A (zh) * | 2018-11-14 | 2019-03-29 | 全链通有限公司 | 区块生成方法和系统 |
CN110598802A (zh) * | 2019-09-26 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 一种内存检测模型训练的方法、内存检测的方法及装置 |
CN110784507A (zh) * | 2019-09-05 | 2020-02-11 | 贵州人和致远数据服务有限责任公司 | 人口信息数据的融合方法及系统 |
CN110879827A (zh) * | 2019-10-23 | 2020-03-13 | 联想(北京)有限公司 | 一种基于区块链网络的信息处理方法及设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10019629B2 (en) * | 2016-05-31 | 2018-07-10 | Microsoft Technology Licensing, Llc | Skeleton-based action detection using recurrent neural network |
US20180005445A1 (en) * | 2016-06-30 | 2018-01-04 | Microsoft Technology Licensing, Llc | Augmenting a Moveable Entity with a Hologram |
US10657424B2 (en) * | 2016-12-07 | 2020-05-19 | Samsung Electronics Co., Ltd. | Target detection method and apparatus |
KR102410820B1 (ko) * | 2017-08-14 | 2022-06-20 | 삼성전자주식회사 | 뉴럴 네트워크를 이용한 인식 방법 및 장치 및 상기 뉴럴 네트워크를 트레이닝하는 방법 및 장치 |
-
2020
- 2020-12-24 CN CN202011557239.0A patent/CN112613601B/zh active Active
-
2021
- 2021-09-14 US US17/447,612 patent/US11949797B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108234127A (zh) * | 2016-12-22 | 2018-06-29 | 中国移动通信集团公司 | 一种基于区块链的物联方法及装置 |
CN109376534A (zh) * | 2018-09-26 | 2019-02-22 | 百度在线网络技术(北京)有限公司 | 用于检测应用的方法和装置 |
CN109543075A (zh) * | 2018-11-14 | 2019-03-29 | 全链通有限公司 | 区块生成方法和系统 |
CN110784507A (zh) * | 2019-09-05 | 2020-02-11 | 贵州人和致远数据服务有限责任公司 | 人口信息数据的融合方法及系统 |
CN110598802A (zh) * | 2019-09-26 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 一种内存检测模型训练的方法、内存检测的方法及装置 |
CN110879827A (zh) * | 2019-10-23 | 2020-03-13 | 联想(北京)有限公司 | 一种基于区块链网络的信息处理方法及设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113254980A (zh) * | 2021-07-07 | 2021-08-13 | 南京可信区块链与算法经济研究院有限公司 | 一种用于深度学习的工作量证明共识方法及系统 |
CN113254980B (zh) * | 2021-07-07 | 2022-02-15 | 南京可信区块链与算法经济研究院有限公司 | 一种用于深度学习的工作量证明共识方法及系统 |
CN113792872A (zh) * | 2021-08-24 | 2021-12-14 | 浙江数秦科技有限公司 | 基于区块链的神经网络训练容器和托管训练方法 |
CN113792873A (zh) * | 2021-08-24 | 2021-12-14 | 浙江数秦科技有限公司 | 一种基于区块链的神经网络模型托管训练系统 |
CN113792872B (zh) * | 2021-08-24 | 2024-05-28 | 浙江数秦科技有限公司 | 基于区块链的神经网络训练容器和托管训练方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220209963A1 (en) | 2022-06-30 |
US11949797B2 (en) | 2024-04-02 |
CN112613601B (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11232478B2 (en) | Methods and system for collecting statistics against distributed private data | |
Abuidris et al. | Secure large‐scale E‐voting system based on blockchain contract using a hybrid consensus model combined with sharding | |
KR102687781B1 (ko) | 증명 검증에 기초하여 오프-체인 데이터를 인증하기 위한 시스템 및 방법 | |
CN112613601B (zh) | 神经网络模型更新方法、设备及计算机存储介质 | |
CN111914027B (zh) | 一种区块链交易关键字可搜索加密方法及系统 | |
Smith | The blockchain litmus test | |
CN115152177B (zh) | 提供机密知识的专门证明的系统和方法 | |
EP3869376B1 (en) | System and method for blockchain based decentralized storage with dynamic data operations | |
CN114281888A (zh) | 一种区块链共识方法、装置、设备及存储介质 | |
CN112291062B (zh) | 一种基于区块链的投票方法及装置 | |
CN112565264B (zh) | 一种基于区块链的云存储数据完整性检测方法 | |
Qu et al. | A electronic voting protocol based on blockchain and homomorphic signcryption | |
CN110990790B (zh) | 一种数据处理方法及设备 | |
WO2021202289A1 (en) | Deterministic sparse-tree based cryptographic proof of liabilities | |
Zhang et al. | Redactable transactions in consortium blockchain: Controlled by multi-authority CP-ABE | |
CN115208628A (zh) | 基于区块链的数据完整性验证方法 | |
US11362806B2 (en) | System and methods for recording codes in a distributed environment | |
Xu et al. | Efficient privacy-preserving electronic voting scheme based on blockchain | |
Zhou et al. | Fair cloud auditing based on blockchain for resource-constrained IoT devices | |
Wang et al. | Blockchain-Based Unbalanced PSI with Public Verification and Financial Security | |
CN113992389A (zh) | 一种基于动态频率表的sgx数据完整性审计方法 | |
Gauthier et al. | Topos: A Secure, Trustless, and Decentralized Interoperability Protocol | |
Kokoris Kogias | Secure, confidential blockchains providing high throughput and low latency | |
Ma et al. | Blockchain-Based Privacy-Preserving Federated Learning for Mobile Crowdsourcing | |
Zhang et al. | Toward Secure and Efficient Collaborative Cached Data Auditing for Distributed Fog Computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |