CN114707663B - 分布式机器学习方法、装置、电子设备及存储介质 - Google Patents
分布式机器学习方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114707663B CN114707663B CN202210399290.6A CN202210399290A CN114707663B CN 114707663 B CN114707663 B CN 114707663B CN 202210399290 A CN202210399290 A CN 202210399290A CN 114707663 B CN114707663 B CN 114707663B
- Authority
- CN
- China
- Prior art keywords
- model
- machine learning
- blockchain network
- node
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 166
- 238000012549 training Methods 0.000 claims abstract description 76
- 238000000034 method Methods 0.000 claims abstract description 30
- 230000000694 effects Effects 0.000 claims description 9
- 230000004931 aggregating effect Effects 0.000 claims description 7
- 238000012790 confirmation Methods 0.000 claims description 7
- 238000012795 verification Methods 0.000 claims description 6
- 230000002776 aggregation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000006978 adaptation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本公开提供了一种分布式机器学习方法、装置、电子设备及存储介质,涉及人工智能技术领域。该方法包括从区块链网络中获取待训练的机器学习模型和第一模型参数,其中,第一模型参数为区块链网络中的公共参数;将第一模型参数代入机器学习模型;根据算力节点本地存储的数据,对代入第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型,其中,区块链网络根据训练结果更新第一模型参数,算力节点根据区块链网络上更新的第一模型参数,验证训练好的机器学习模型是否满足第一预定义模型条件。本公开能够实现分布式机器学习的去中心化,增强了分布式机器学习的安全性。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及一种分布式机器学习方法、装置、电子设备及存储介质。
背景技术
分布式机器学习(例如:联邦学习)是一种新兴的人工智能基础技术,用于在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多个参与方或者多个计算节点之间进行高效率的机器学习。分布式机器学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。
然而,分布式机器学习虽然可以解决多方数据共享过程中的数据隐私和机密问题,但是在实施的过程中需要协调方来处理模型中的参数。这种中心化的星型网络架构造成了权利集中的问题,使系统的安全性取决于协调方的安全性,同时,这种星型的网络架构也会造成系统容错率降低的问题,并使系统的可扩展性存在局限。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种分布式机器学习方法、装置、电子设备及存储介质,至少在一定程度上克服由于相关技术中分布式机器学习的星型网络架构导致权利集中的技术问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种分布式机器学习方法,包括:
从区块链网络中获取待训练的机器学习模型和第一模型参数,其中,所述第一模型参数为所述区块链网络中的公共参数;
将所述第一模型参数代入所述机器学习模型;
根据所述算力节点本地存储的数据,对代入所述第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型,其中,所述区块链网络根据训练结果更新所述第一模型参数,所述算力节点根据区块链网络上更新的第一模型参数,验证训练好的机器学习模型是否满足第一预定义模型条件。
在本公开的一个实施例中,根据所述算力节点本地存储的数据,对代入所述第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型,具体包括:
循环执行如下步骤,直到获取到满足第一预定义模型条件的机器学习模型:
根据所述算力节点本地存储的数据,对代入所述第一模型参数的机器学习模型进行训练,得到对应的第二模型参数;
将所述第二模型参数上传至所述区块链网络,其中,所述区块链网络用于聚合多个算力节点分别上传的第二模型参数以更新所述第一模型参数;
从区块链网络获取更新后的所述第一模型参数;
将从区块链网络获取到的所述第一模型参数代入所述机器学习模型,并验证代入所述第一模型参数的机器学习模型是否满足第一预定义模型条件。
在本公开的一个实施例中,在从区块链网络中获取待训练的机器学习模型和第一模型参数之前,所述方法还包括:
向所述区块链网络发送训练加入请求,以获得所述区块链网络的访问权限。
在本公开的一个实施例中,所述区块链网络包括多个共识节点,在每轮训练开始时,从所述多个共识节点选取一个节点作为主节点,除所述主节点外的其余共识节点作为从节点,所述主节点用于接收所述第二模型参数,并将所述第二模型参数同步至各个所述从节点;
所述将所述第二模型参数上传至所述区块链网络,具体包括:
判断所述第二模型的模型效果是否满足第二预定义模型条件;
若是,则将所述第二模型参数上传至所述区块链网络的主节点。
在本公开的一个实施例中,在将所述第二模型参数上传至所述区块链网络的主节点之后,所述方法还包括:
接收所述主节点和各个所述从节点返回的参数确认消息,以确定所述第二模型参数上传完成;
其中,所述参数确认消息由所述主节点和各个所述从节点在完成数据共识后发送,若所述主节点与各个所述从节点之间的数据具有一致性,则确定数据共识完成。
在本公开的一个实施例中,每轮训练中区块链网络的主节点与前一轮训练中区块链网络的主节点不同。
在本公开的一个实施例中,所述区块链网络还用于验证算力节点的授权身份,通过授权身份验证的算力节点上传的第二模型参数用于聚合后更新所述第一模型参数。
根据本公开的另一个方面,提供一种分布式机器学习装置,包括:
模型获取模块,用于从区块链网络中获取待训练的机器学习模型和第一模型参数,其中,所述第一模型参数为所述区块链网络中的公共参数;
参数代入模块,用于将所述第一模型参数代入所述机器学习模型;
模型训练模块,用于根据所述算力节点本地存储的数据,对代入所述第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型,其中,所述区块链网络根据训练结果更新所述第一模型参数,所述算力节点根据区块链网络上更新的第一模型参数,验证训练好的机器学习模型是否满足第一预定义模型条件。
根据本公开的再一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述的分布式机器学习方法。
根据本公开的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的分布式机器学习方法。
本公开的实施例所提供的分布式机器学习方法、装置、电子设备及存储介质,通过将分布式机器学习技术与区块链网络相结合,利用区块链网络来代替协调方角色,从而实现了分布式机器学习的去中心化,增强了分布式机器学习的安全性。
进一步地,利用本公开提供的方法可以使多个算力节点在共同完成分布式机器学习任务的同时,保护训练数据不出本地,从而打破不同数据方之间的数据资源壁垒,更加安全、高效地实现分布式的多方机器学习。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出相关技术中一种分布式机器学习系统架构的示意图;
图2示出本公开实施例中一种分布式机器学习方法流程图;
图3示出本公开实施例中一种分布式机器学习模型训练流程图;
图4示出本公开实施例中一种分布式机器学习方法的应用架构示意图;
图5示出本公开实施例中一种分布式机器学习任务执行流程示意图;
图6示出本公开实施例中一种分布式机器学习装置示意图;
图7示出本公开实施例中一种计算机设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
分布式机器学习是一种带有隐私保护、安全加密技术的机器学习框架,旨在让分散的各参与方在满足不向其他参与者披露隐私数据的前提下,协作进行机器学习的模型训练。
如图1所示,在相关技术中的分布式机器学习方案中,往往通过具有权威性的可信第三方作为协调方来实现多数据源的联合机器学习,其过程可以简单概括为以下步骤:
协调方建立基本模型,并将模型的基本结构与参数告知各数据方(例如图中数据方A、数据方B);各参与方利用本地数据(例如图中的数据A、数据B)进行模型训练,并将结果返回给协调方,其中各个参与方之间以及各个样本之间通过同态加密机制进行参数交换;协调方汇总各参与方的模型,构建更精准的联合模型,以整体提升模型性能和效果。
分布式机器学习框架包含多方面的技术,比如传统机器学习的模型训练技术、协调方参数整合的算法技术、协调方与参与方高效传输的通信技术、隐私保护的加密技术等。此外,在分布式机器学习框架中还存在激励机制,数据持有方均可参与,收益具有普遍性。
然而,相关技术中的分布式机器学习方法中,存在以下问题:
(1)不同数据方的计算和存储资源层次不齐,本地训练出来的模型质量不对等。
(2)需要协调方为各个数据方分发模型计算训练任务,星型的网络架构导致整个系统容错性降低。
(3)系统权力过于集中,模型和数据的安全性依赖于对协调方绝对信任。
为解决上述技术问题,本公开提供了一种分布式机器学习方法,该方法可应用于分布式机器学习的算力节点,在从区块链网络中获取待训练的机器学习模型和第一模型参数后,将第一模型参数代入机器学习模型,并根据算力节点本地存储的数据,对代入第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型。其中,第一模型参数为区块链网络中的公共参数,区块链网络根据训练结果更新第一模型参数,算力节点根据区块链网络上更新的第一模型参数,验证训练好的机器学习模型是否满足第一预定义模型条件。
基于上述方案,本公开所提出的分布式机器学习方法利用区块链技术代替了传统分布式机器学习中协调方的角色,解决了中心化所带来的安全风险和系统可扩展性的瓶颈。
下面结合附图及实施例对本示例实施方式进行详细说明。
首先,本公开实施例中提供了一种分布式机器学习方法,该方法可以由终端设备、服务器等任意拥有计算能力的电子设备执行,本公开对此不作限定。
图2示出本公开实施例中一种分布式机器学习方法流程图,如图2所示,本公开实施例中提供的分布式机器学习方法包括如下步骤:
S202,从区块链网络中获取待训练的机器学习模型和第一模型参数,其中,第一模型参数为区块链网络中的公共参数。
需要说明的是,待训练的机器学习模型预先存储于区块链网络中的各个节点上,区块链网络中各个节点之间的数据具有一致性。
应当理解的是,待训练的机器学习模型的种类可以是任意的,例如神经网络模型、随机森林模型等等,本公开对此不作限定。
需要说明的是,区块链网络中的公共参数为每轮训练时算力节点能够从区块链网络中获取到的模型参数,即每轮训练时算力节点用于代入待训练的机器学习模型的参数。在机器学习模型训练开始前,区块链网络中的公共参数可以是用于训练模型的初始参数。
需要说明的是,在本公开实施例提供的分布式机器学习方法中,具有多个共同用于训练的算力节点,其中每个算力节点之间的数据相互独立且不互通。在每轮训练时,各个算力节点可从区块链网络中获取相同的第一模型参数代入机器学习模型,并利用算力节点各自本地的数据基于相同的第一模型参数进行训练,由于算力节点各自本地的数据均不同,因此训练后得到模型和参数也各不相同。
在一些实施例中,算力节点在从区块链网络中获取待训练的机器学习模型和第一模型参数之前,可以向区块链网络发送训练加入请求,从而获得区块链网络的访问权限。
需要说明的是,训练加入请求中可记载该算力节点自身的节点类型和权限需求。区块链网络在收到算力节点的训练加入请求后,区块链网络的智能合约可根据算力节点的节点类型和权限需求,通过预先设置的访问控制策略为算力节点分配相应的区块链网络访问权限。
进一步地,在成功获取区块链网络访问权限后,算力节点可通过区块链网络获取第一模型参数和待训练的机器学习模型。
S204,将第一模型参数代入机器学习模型。
具体地,算力节点在从区块链网络获取到第一模型参数和待训练的机器学习模型后,可将第一模型参数代入机器学习模型,从而得到完整的初始机器学习模型。
应当理解的是,在每轮训练过程中,机器学习模型具有相同的预设模型结构,通过向模型中代入不同的参数,可实现对机器学习模型的变更和优化,并使模型产生不同的训练效果。
S206,根据算力节点本地存储的数据,对代入第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型,其中,区块链网络根据训练结果更新第一模型参数,算力节点根据区块链网络上更新的第一模型参数,验证训练好的机器学习模型是否满足第一预定义模型条件。
具体地,图3示出本公开实施例中一种分布式机器学习模型训练流程图,其中,S302~S308可被重复执行,直到获取到满足第一预定义模型条件的机器学习模型。
如图3所示,每轮机器学习模型训练具体包括以下步骤:
S302,根据算力节点本地存储的数据,对代入第一模型参数的机器学习模型进行训练,得到对应的第二模型参数。
需要说明的是,第二模型参数为根据算力节点本地存储的数据训练后的机器学习模型的模型参数,每个算力节点在通过自身本地数据对机器学习模型进行训练后,均可获得相应的第二模型参数。
S304,将第二模型参数上传至区块链网络,其中,区块链网络用于聚合多个算力节点分别上传的第二模型参数以更新第一模型参数。
可选地,算力节点在上传第二模型参数前,可以预先判断训练后的模型是否满足第二预定义模型条件。其中,第二预定义模型条件也可以基于模型精确度设置,例如,可以将第二预定义模型条件设定为S202中本地数据训练得到的模型的精确度比上一轮训练得到的模型高1%。
通过对模型的预先判断,可以筛选出效果较差的模型参数,从而仅上传效果较优的模型参数,以避免由于某一算力节点本地训练出的模型较差从而影响分布式机器学习模型整体的精确度。
需要说明的是,区块链网络在收到同一轮训练中各个算力节点上传的第二模型参数后,会对各个第二模型参数进行聚合处理,其中参数聚合的方法为相关技术中的常规手段,本公开对此不再赘述。
进一步地,利用各个第二模型参数的聚合结果,可以更新第一模型参数,即可以将第二模型参数的聚合结果作为区块链网络中新的公共参数。
可选地,在对各个第二模型参数进行聚合之前,区块链网络还可以验证各个算力节点的授权身份,以确保上传的第二模型参数是可信参数。在此情况下,在将各个算力节点上传的第二模型参数聚合用于更新第一模型参数时,仅使用通过授权身份验证的算力节点上传的第二模型参数,以避免部分算力节点遭到攻击或上传恶意数据影响参数聚合结果,从而影响整体模型训练效果。
具体地,在分布式机器学习的训练过程中,各个算力节点的授权身份可以是动态变化的,即随着训练的进行而被赋予或移除授权身份。具体地,在每轮训练过程中,区块链网络会按照预设算法计算各个算力节点的信任值,当信任值达到一定条件时,则赋予该算力节点授权身份,并认为该节点上传的第二模型参数为可信参数。例如,可将信任值大于预设阈值的算力节点赋予授权身份,或将信任值由大到小排序后取前几名赋予相应的算力节点授权身份。
需要说明的是,本公开实施例中的区块链网络包括多个共识节点,在每轮训练开始时,从多个共识节点选取一个节点作为主节点,除主节点外的其余共识节点作为从节点,主节点用于接收第二模型参数,并将第二模型参数同步至各个从节点。算力节点可通过接收主节点和各个从节点返回的参数确认消息,以确定第二模型参数上传完成。
需要说明的是,参数确认消息由主节点和各个从节点在完成数据共识后发送至算力节点,若主节点与各个从节点之间的数据具有一致性,则确定数据共识完成。
例如,在一次数据共识过程中,假设区块链网络中拥有4个共识节点,其中1个节点作为主节点,则除主节点外的其余3个节点作为从节点。当主节点接收到来自任一算力节点的发送的第二模型参数时,主节点首先将第二模型参数分别发送至3个从节点。3个从节点在均确认收到主节点发送的第二模型参数后,验证自身收到的第二模型参数与除自身以外的其余各个共识节点上存储的第二模型参数是否一致。当3个从节点均完成一致性验证后,4个共识节点分别向算力节点发送参数确认消息,以确认收到第二模型参数。
在一些实施例中,每轮训练中区块链网络的主节点可与前一轮训练中区块链网络的主节点不同,以保证区块链中的各个共识节点的权利分散,从而使得即使一个共识节点发生故障或被恶意篡改后仍不影响整体模型的训练,避免构成相关技术中星型网络结构下协调方权力集中的类似情况发送。
通过上述数据共识方法,可以使区块链网络的各个共识节点具有一致性、正确性和容错性,即所有共识节点必须对同一数据进行确认,所有共识节点同步后的状态完全相同,当一部分共识节点出现故障,系统还能够正确运行。
S306,从区块链网络获取更新后的第一模型参数。
具体地,算力节点从区块链网络中获取更新后的第一模型参数,更新后的第一模型参数即区块链网络中新的公共参数,通过区块链网络聚合多个第二模型参数得到的聚合结果更新。
S308,将从区块链网络获取到的第一模型参数代入机器学习模型,并验证代入第一模型参数的机器学习模型是否满足第一预定义模型条件。
需要说明的是,S308中代入机器学习模型的第一模型参数为更新后的第一模型参数,应当理解的是,代入更新后的第一模型参数的机器学习模型为该轮训练中最终得到的机器学习模型,用于验证最终训练后的模型是否满足第一预定义模型条件。
需要说明的是,第一预定义模型条件可以理解为用户期望达到的模型效果,与前述第二预定义模型条件相似地,第一预定义模型条件也可以基于模型精确度设置,例如,可以将第一预定义模型条件设定为模型的精确度达到99%。
需要说明的是,用于验证机器学习模型的数据可以是算力节点的本地数据,也可以是另外构建的样本集。由于基于分布式机器学习训练得到的模型通常要求较高的泛化能力,因此用于验证的样本越丰富,验证的结果越准确。
为便于理解,下面将结合图4提供一个具体应用例,用于示出本公开提供的分布式机器学习方法的完整实施过程,该应用例仅用以解释本发明,并不用于限定本发明。
如图4所示,本公开实施例中共包括4个数据方(数据方A、数据方B、数据方C、数据方D),每个数据方上均存储有具有机器学习价值的数据,因此4个数据方均需要作为算力节点加入分布式机器学习任务中,并利用各自本地存储的数据独立完成模型训练,其中,该分布式机器学习任务的系统架构采用区块链网络作为协调方。
在上述前提下,下面将以数据方A为例,同时参照图5来说明分布式机器学习任务执行的具体过程。
S501,数据方A向区块链网络提交分布式机器学习任务的加入申请。
S502,区块链网络利用智能合约对数据方A的提交的加入申请进行审核。
S503,在数据方A的加入申请通过审核后,区块链网络利用智能合约通过预先设定的访问控制策略为数据方A分配访问权限,从而使数据方A成为算力节点A,并参与到分布式机器学习任务中。
S504,算力节点A通过区块链网络获取分布式机器学习任务的机器学习模型和公共模型参数,并用本地的私有数据集独立训练机器学习模型。
S505,算力节点A判断独立训练后的模型是否满足第二预定义模型条件,若不满足,则跳转至S504,且本轮不上传训练结果。
S506,若满足第二预定义模型条件,则使算力节点A上传训练结果;区块链网络接收到算力节点A的训练结果后,将算力节点A的训练结果与算力节点B、C、D本轮上传的训练结果聚合,更新公共模型参数。
S507,基于更新后的公共模型参数判断模型是否满足第一预定义模型条件,若模型效果满足第一预定义模型条件,则结束训练,否则跳转至S504。
基于同一发明构思,本公开实施例中还提供了一种分布式机器学习装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图6示出本公开实施例中一种分布式机器学习装置示意图,如图6所示,该装置600包括:
模型获取模块601,用于从区块链网络中获取待训练的机器学习模型和第一模型参数,其中,第一模型参数为区块链网络中的公共参数;
参数代入模块602,用于将第一模型参数代入机器学习模型;
模型训练模块603,用于根据算力节点本地存储的数据,对代入第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型,其中,区块链网络根据训练结果更新第一模型参数,算力节点根据区块链网络上更新的第一模型参数,验证训练好的机器学习模型是否满足第一预定义模型条件。
在一些实施例中,模型训练模块603具体用于循环执行如下步骤,直到获取到满足第一预定义模型条件的机器学习模型:
根据算力节点本地存储的数据,对代入第一模型参数的机器学习模型进行训练,得到对应的第二模型参数;
将第二模型参数上传至区块链网络,其中,区块链网络用于聚合多个算力节点分别上传的第二模型参数以更新第一模型参数;
从区块链网络获取更新后的第一模型参数;
将从区块链网络获取到的第一模型参数代入机器学习模型,并验证代入第一模型参数的机器学习模型是否满足第一预定义模型条件。
需要说明的是,上述实施例提供的分布式机器学习装置在用于分布式机器学习时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的分布式机器学习装置与分布式机器学习方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图7来描述根据本公开的这种实施方式的电子设备700。图7显示的电子设备700仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:上述至少一个处理单元710、上述至少一个存储单元720、连接不同系统组件(包括存储单元720和处理单元710)的总线730。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元710执行,使得所述处理单元710执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元710可以执行上述方法实施例的如下步骤:从区块链网络中获取待训练的机器学习模型和第一模型参数,其中,第一模型参数为区块链网络中的公共参数;将第一模型参数代入机器学习模型;根据算力节点本地存储的数据,对代入第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型,其中,区块链网络根据训练结果更新第一模型参数,算力节点根据区块链网络上更新的第一模型参数,验证训练好的机器学习模型是否满足第一预定义模型条件。
在一些实施例中,处理单元710还可以循环执行如下步骤,直到获取到满足第一预定义模型条件的机器学习模型:
根据算力节点本地存储的数据,对代入第一模型参数的机器学习模型进行训练,得到对应的第二模型参数;
将第二模型参数上传至区块链网络,其中,区块链网络用于聚合多个算力节点分别上传的第二模型参数以更新第一模型参数;
从区块链网络获取更新后的第一模型参数;
将从区块链网络获取到的第一模型参数代入机器学习模型,并验证代入第一模型参数的机器学习模型是否满足第一预定义模型条件。
存储单元720可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)7201和/或高速缓存存储单元7202,还可以进一步包括只读存储单元(ROM)7203。
存储单元720还可以包括具有一组(至少一个)程序模块7205的程序/实用工具7204,这样的程序模块7205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线730可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备700也可以与一个或多个外部设备740(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口750进行。并且,电子设备700还可以通过网络适配器760与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器760通过总线730与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (9)
1.一种分布式机器学习方法,其特征在于,应用于算力节点,所述算力节点具备区块链网络的访问权限,所述方法包括:
从区块链网络中获取待训练的机器学习模型和第一模型参数,其中,所述第一模型参数为所述区块链网络中的公共参数;
将所述第一模型参数代入所述机器学习模型;
根据所述算力节点本地存储的数据,对代入所述第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型,其中,所述区块链网络根据训练结果更新所述第一模型参数,所述算力节点根据区块链网络上更新的第一模型参数,验证训练好的机器学习模型是否满足第一预定义模型条件。
2.根据权利要求1所述的分布式机器学习方法,其特征在于,根据所述算力节点本地存储的数据,对代入所述第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型,具体包括:
循环执行如下步骤,直到获取到满足第一预定义模型条件的机器学习模型:
根据所述算力节点本地存储的数据,对代入所述第一模型参数的机器学习模型进行训练,得到对应的第二模型参数;
将所述第二模型参数上传至所述区块链网络,其中,所述区块链网络用于聚合多个算力节点分别上传的第二模型参数以更新所述第一模型参数;
从区块链网络获取更新后的所述第一模型参数;
将从区块链网络获取到的所述第一模型参数代入所述机器学习模型,并验证代入所述第一模型参数的机器学习模型是否满足第一预定义模型条件。
3.根据权利要求2所述的分布式机器学习方法,其特征在于,所述区块链网络包括多个共识节点,在每轮训练开始时,从所述多个共识节点选取一个节点作为主节点,除所述主节点外的其余共识节点作为从节点,所述主节点用于接收所述第二模型参数,并将所述第二模型参数同步至各个所述从节点;
所述将所述第二模型参数上传至所述区块链网络,具体包括:
判断所述第二模型的模型效果是否满足第二预定义模型条件;
若是,则将所述第二模型参数上传至所述区块链网络的主节点。
4.根据权利要求3所述的分布式机器学习方法,其特征在于,在将所述第二模型参数上传至所述区块链网络的主节点之后,所述方法还包括:
接收所述主节点和各个所述从节点返回的参数确认消息,以确定所述第二模型参数上传完成;
其中,所述参数确认消息由所述主节点和各个所述从节点在完成数据共识后发送,若所述主节点与各个所述从节点之间的数据具有一致性,则确定数据共识完成。
5.根据权利要求3所述的分布式机器学习方法,其特征在于,每轮训练中区块链网络的主节点与前一轮训练中区块链网络的主节点不同。
6.根据权利要求2所述的分布式机器学习方法,其特征在于,所述区块链网络还用于验证算力节点的授权身份,通过授权身份验证的算力节点上传的第二模型参数用于聚合后更新所述第一模型参数。
7.一种分布式机器学习装置,其特征在于,应用于算力节点,所述算力节点具备区块链网络的访问权限,包括:
模型获取模块,用于从区块链网络中获取待训练的机器学习模型和第一模型参数,其中,所述第一模型参数为所述区块链网络中的公共参数;
参数代入模块,用于将所述第一模型参数代入所述机器学习模型;
模型训练模块,用于根据算力节点本地存储的数据,对代入所述第一模型参数的机器学习模型进行多轮训练,直到获取到满足第一预定义模型条件的机器学习模型,其中,所述区块链网络根据训练结果更新所述第一模型参数,所述算力节点根据区块链网络上更新的第一模型参数,验证训练好的机器学习模型是否满足第一预定义模型条件。
8.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~6中任意一项所述的分布式机器学习方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~6中任意一项所述的分布式机器学习方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210399290.6A CN114707663B (zh) | 2022-04-15 | 2022-04-15 | 分布式机器学习方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210399290.6A CN114707663B (zh) | 2022-04-15 | 2022-04-15 | 分布式机器学习方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114707663A CN114707663A (zh) | 2022-07-05 |
CN114707663B true CN114707663B (zh) | 2024-02-23 |
Family
ID=82174086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210399290.6A Active CN114707663B (zh) | 2022-04-15 | 2022-04-15 | 分布式机器学习方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114707663B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116629098A (zh) * | 2023-04-23 | 2023-08-22 | 江苏高智电力设计咨询有限公司 | 一种电力设计的设计校验系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490305A (zh) * | 2019-08-22 | 2019-11-22 | 腾讯科技(深圳)有限公司 | 基于区块链网络的机器学习模型处理方法及节点 |
CN111552986A (zh) * | 2020-07-10 | 2020-08-18 | 鹏城实验室 | 基于区块链的联邦建模方法、装置、设备及存储介质 |
CN112784995A (zh) * | 2020-12-31 | 2021-05-11 | 杭州趣链科技有限公司 | 联邦学习方法、装置、设备及存储介质 |
CN112861152A (zh) * | 2021-02-08 | 2021-05-28 | 北京航空航天大学 | 一种基于许可链的联邦学习激励方法及系统 |
WO2021159753A1 (zh) * | 2020-09-21 | 2021-08-19 | 平安科技(深圳)有限公司 | 一种联邦学习模型训练方法、装置、终端设备及存储介质 |
CN113792347A (zh) * | 2021-08-24 | 2021-12-14 | 上海点融信息科技有限责任公司 | 基于区块链的联邦学习方法、装置、设备及存储介质 |
CN113837761A (zh) * | 2021-11-26 | 2021-12-24 | 北京理工大学 | 一种基于区块链和可信执行环境的联邦学习方法及系统 |
CN113919511A (zh) * | 2020-09-24 | 2022-01-11 | 京东科技控股股份有限公司 | 联邦学习方法及装置 |
CN114244835A (zh) * | 2021-11-19 | 2022-03-25 | 海南火链科技有限公司 | 基于区块链的去中心化自适应协同训练方法和装置 |
CN114339733A (zh) * | 2021-12-30 | 2022-04-12 | 中国电信股份有限公司 | 模型训练方法及相关设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3564873B1 (en) * | 2018-04-30 | 2022-11-30 | Hewlett Packard Enterprise Development LP | System and method of decentralized machine learning using blockchain |
-
2022
- 2022-04-15 CN CN202210399290.6A patent/CN114707663B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490305A (zh) * | 2019-08-22 | 2019-11-22 | 腾讯科技(深圳)有限公司 | 基于区块链网络的机器学习模型处理方法及节点 |
CN110991622A (zh) * | 2019-08-22 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 基于区块链网络的机器学习模型处理方法及节点 |
CN111552986A (zh) * | 2020-07-10 | 2020-08-18 | 鹏城实验室 | 基于区块链的联邦建模方法、装置、设备及存储介质 |
WO2021159753A1 (zh) * | 2020-09-21 | 2021-08-19 | 平安科技(深圳)有限公司 | 一种联邦学习模型训练方法、装置、终端设备及存储介质 |
CN113919511A (zh) * | 2020-09-24 | 2022-01-11 | 京东科技控股股份有限公司 | 联邦学习方法及装置 |
CN112784995A (zh) * | 2020-12-31 | 2021-05-11 | 杭州趣链科技有限公司 | 联邦学习方法、装置、设备及存储介质 |
CN112861152A (zh) * | 2021-02-08 | 2021-05-28 | 北京航空航天大学 | 一种基于许可链的联邦学习激励方法及系统 |
CN113792347A (zh) * | 2021-08-24 | 2021-12-14 | 上海点融信息科技有限责任公司 | 基于区块链的联邦学习方法、装置、设备及存储介质 |
CN114244835A (zh) * | 2021-11-19 | 2022-03-25 | 海南火链科技有限公司 | 基于区块链的去中心化自适应协同训练方法和装置 |
CN113837761A (zh) * | 2021-11-26 | 2021-12-24 | 北京理工大学 | 一种基于区块链和可信执行环境的联邦学习方法及系统 |
CN114339733A (zh) * | 2021-12-30 | 2022-04-12 | 中国电信股份有限公司 | 模型训练方法及相关设备 |
Non-Patent Citations (4)
Title |
---|
A Trusted Consensus Scheme for Collaborative Learning in the Edge AI Computing Domain;Wang, Ke 等;《IEEE NETWORK》;20210510;第204-210页 * |
加速AI分布式训练研究和实践;朱祥磊;;电信技术(12);第30-33页 * |
基于层级注意力机制与双向长短期记忆神经网络的智能合约自动分类模型;吴雨芯;蔡婷;张大斌;;计算机应用;20190929(04);第54-60页 * |
基于机器学习的区块链智能合约脚本设计;张延华;王勇;杨兆鑫;杨睿哲;;情报工程;20190815(04);第5-11页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114707663A (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108256864B (zh) | 一种区块链之间的跨链联盟的建立及通信方法、系统 | |
CN111741114B (zh) | 基于区块链的可监管跨链交互系统、方法及设备 | |
CN111125779A (zh) | 一种基于区块链的联邦学习方法及装置 | |
CN107819749A (zh) | 基于以太坊的区块链系统和交易数据处理方法 | |
CN108965469B (zh) | 区块链网络成员动态管理方法、装置、设备及存储介质 | |
WO2020173499A1 (zh) | 基于公链的区块链子链创建方法及系统 | |
CN111813864A (zh) | 一种联盟链搭建方法、装置、计算机设备及存储介质 | |
CN113328997B (zh) | 联盟链跨链系统及方法 | |
CN111523150B (zh) | 基于区块链的文档编辑方法、装置及系统 | |
CN109299333B (zh) | 区块链网络账本成员管理方法、装置、设备及存储介质 | |
CN113992360A (zh) | 一种基于区块链跨链的联邦学习方法及设备 | |
CN114707663B (zh) | 分布式机器学习方法、装置、电子设备及存储介质 | |
CN113469371A (zh) | 联邦学习方法和装置 | |
CN115174570A (zh) | 一种基于动态委员会的跨链共识方法及系统 | |
CN112235290B (zh) | 基于区块链的物联网设备管理方法及第一物联网设备 | |
CN109960512B (zh) | 一种软件部署方法及系统 | |
CN111859465A (zh) | 基于区块链的轨道交通分布式智能运维系统及其运行方法 | |
CN115865537B (zh) | 基于中心化系统管理的隐私计算方法、电子设备和存储介质 | |
CN111709053A (zh) | 基于松散耦合交易网络的作业方法及作业装置 | |
CN109104472B (zh) | 区块链网络组网方法、装置、设备及计算机可读存储介质 | |
CN115859371A (zh) | 基于区块链的隐私计算方法、电子设备和存储介质 | |
CN115865705A (zh) | 基于监管机构的多方联邦学习系统、方法、设备及介质 | |
CN115632774A (zh) | 一种基于门限签名的分布式预言机实现方法及系统 | |
CN113014540B (zh) | 一种数据处理方法、装置、设备及存储介质 | |
CN114897177A (zh) | 数据建模方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |