CN117807634A - 认知计算模型的更新方法、装置、设备及存储介质 - Google Patents
认知计算模型的更新方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117807634A CN117807634A CN202211216000.6A CN202211216000A CN117807634A CN 117807634 A CN117807634 A CN 117807634A CN 202211216000 A CN202211216000 A CN 202211216000A CN 117807634 A CN117807634 A CN 117807634A
- Authority
- CN
- China
- Prior art keywords
- parameters
- current
- model
- aggregator
- cognitive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001149 cognitive effect Effects 0.000 title claims abstract description 237
- 238000000034 method Methods 0.000 title claims abstract description 97
- 238000004364 calculation method Methods 0.000 claims abstract description 89
- 230000008569 process Effects 0.000 claims description 38
- 230000002159 abnormal effect Effects 0.000 claims description 20
- 230000008901 benefit Effects 0.000 claims description 19
- 230000009471 action Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 13
- 230000002776 aggregation Effects 0.000 claims description 11
- 238000004220 aggregation Methods 0.000 claims description 11
- 230000004931 aggregating effect Effects 0.000 claims description 7
- 238000005094 computer simulation Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 231100000572 poisoning Toxicity 0.000 description 1
- 230000000607 poisoning effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/64—Protecting data integrity, e.g. using checksums, certificates or signatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/27—Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/70—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
- G06F21/71—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开提供一种认知计算模型的更新方法、装置、设备及存储介质。该方法应用于第一设备,该方法包括:获取当前全局模型参数,其中当前全局模型参数是上一聚合器根据第一设备所在区域的各个设备的认知计算模型的当前参数确定的;根据当前全局模型参数对第一设备的认知计算模型的当前参数进行迭代更新,确定第一设备的认知计算模型的更新参数;将第一设备的认知计算模型的更新参数上传至第一设备所在区域的当前聚合器,以对各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,其中上一聚合器和当前聚合器均是从各个设备中确定的。该方法可以保证隐私和数据安全,避免数据孤岛问题,并且可以避免单点故障的问题。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种认知计算模型的更新方法、装置、电子设备及存储介质。
背景技术
智能机器的快速普及以及使用人工智能和分布式学习进行信息处理技术发展,使认知计算得以繁荣。但是,数据驱动的认知计算(D2C,data-driven to cognitivecomputing)在工业场景中仍面临一些瓶颈。
相关技术中,各个工业设备收集海量数据,若将它们收集的数据提供给认知服务器或服务提供商,存在隐私泄露的风险;若各个工业设备分别各自训练认知计算模型,会产生数据孤岛问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种认知计算模型的更新方法、装置、电子设备及存储介质,该方法可以保证隐私和数据安全,避免数据孤岛问题,并且可以避免单点故障的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
本公开实施例提供一种认知计算模型的更新方法,应用于第一设备,所述方法包括:获取当前全局模型参数,其中所述当前全局模型参数是上一聚合器根据所述第一设备所在区域的各个设备的认知计算模型的当前参数确定的;根据所述当前全局模型参数对所述第一设备的认知计算模型的当前参数进行迭代更新,确定所述第一设备的认知计算模型的更新参数;将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,其中所述上一聚合器和所述当前聚合器均是从所述各个设备中确定的。
在示例性实施例中,获取当前全局模型参数,包括:从区块链的目标区块获取当前全局模型参数;其中,将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,包括:将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,并将所述下一全局模型参数存储至所述目标区块的下一区块中。
在示例性实施例中,根据所述当前全局模型参数对所述第一设备的认知计算模型的当前参数进行迭代更新,确定所述第一设备的认知计算模型的更新参数,包括:根据所述当前全局模型参数和所述第一设备的认知计算模型的当前参数,得到所述第一设备的认知计算模型的下一参数;当所述第一设备的认知计算模型的当前参数与下一参数之间的相对误差小于预设阈值时,结束迭代更新,以确定所述第一设备的认知计算模型的更新参数。
在示例性实施例中,所述目标区块包括目标区块体,所述目标区块体中存储有所述当前全局模型参数;所述目标区块的下一区块包括下一区块体,所述下一区块体中存储有所述下一全局模型参数。
在示例性实施例中,所述上一聚合器为上一目标聚合器,所述第一设备所在区域为第一区域;其中,将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,包括:将所述第一设备的认知计算模型的更新参数上传至所述第一区域的当前聚合器,以使所述第一区域的当前聚合器和其他区域的当前聚合器通过竞争确定出当前目标聚合器,并通过所述当前目标聚合器对各个区域的各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数。
在示例性实施例中,获取当前全局模型参数,包括:从区块链的目标区块获取当前全局模型参数;其中,将所述第一设备的认知计算模型的更新参数上传至所述第一区域的当前聚合器,以使所述第一区域的当前聚合器和其他区域的当前聚合器通过竞争确定出当前目标聚合器,并通过所述当前目标聚合器对各个区域的各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,包括:将所述第一设备的认知计算模型的更新参数上传至所述第一区域的当前聚合器,以使所述第一区域的当前聚合器和其他区域的当前聚合器通过竞争确定出当前目标聚合器,通过所述当前目标聚合器对各个区域的各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,并通过所述当前目标聚合器将所述下一全局模型参数存储至所述目标区块的下一区块中。
在示例性实施例中,所述方法还包括:以全局模型参数作为状态空间,以所述第一设备所在区域的各个设备上传的认知计算模型的参数作为动作空间,构建所述当前聚合器的马尔科夫决策过程模型,其中所述全局模型参数包括所述当前全局模型参数和所述下一全局模型参数,所述认知计算模型的参数包括所述认知计算模型的当前参数和所述认知计算模型的下一参数;根据所述马尔科夫决策过程模型的状态空间和所述马尔科夫决策过程模型的动作空间确定所述马尔科夫决策过程模型的收益值,并根据所述收益值判断所述当前聚合器的全局模型参数是否存在异常;若所述当前聚合器的全局模型参数存在异常,则确定所述第一设备所在区域的各个设备中存在异常设备。
本公开实施例提供一种认知计算模型的更新装置,应用于第一设备,所述装置包括:获取模块,用于获取当前全局模型参数,其中所述当前全局模型参数是上一聚合器根据所述第一设备所在区域的各个设备的认知计算模型的当前参数确定的;更新模块,用于根据所述当前全局模型参数对所述第一设备的认知计算模型的当前参数进行迭代更新,确定所述第一设备的认知计算模型的更新参数;聚合模块,用于将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,其中所述上一聚合器和所述当前聚合器均是从所述各个设备中确定的。
本公开实施例提供一种电子设备,包括:至少一个处理器;存储终端设备,用于存储至少一个程序,当至少一个程序被至少一个处理器执行时,使得至少一个处理器实现上述任一种认知计算模型的更新方法。
本公开实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,计算机程序被处理器执行时实现上述任一种认知计算模型的更新方法。
本公开实施例提供的认知计算模型的更新方法,聚合器可以根据各个设备各自的认知计算模型的当前参数确定当前全局模型参数,第一设备可以根据当前全局模型参数和第一设备的认知计算模型的当前参数确定该认知计算模型的更新参数;第一客户端将该认知计算模型的更新参数上传至聚合器,以使聚合器根据各个设备的认知计算模型的更新参数确定下一全局模型参数;一方面,由于当前全局模型参数是根据各个设备各自的认知计算模型的当前参数确定的,在第一设备更新其认知计算模型的参数时,可以综合其他设备的模型参数,这样既可以保证隐私和数据安全,又可以避免数据孤岛问题;另一方面,上一聚合器和当前聚合器均是从各个设备中确定的,即不同时间的聚合器可以是不同设备,由此可以避免单点故障的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了可以应用本公开实施例的认知计算模型的更新方法的示例性系统架构的示意图。
图2是根据一示例性实施方式示出的一种认知计算模型的更新方法的流程图。
图3是根据一示例性实施方式示出的另一种认知计算模型的更新方法的流程图。
图4是根据一示例性实施方式示出的一种基于区块链的认知计算模型的更新的示意图。
图5是根据一示例性实施方式示出的再一种认知计算模型的更新方法的流程图。
图6是根据一示例性实施方式示出的再一种认知计算模型的更新方法的流程图。
图7是根据一示例性实施方式示出的一种认知计算模型的更新装置装置的框图。
图8是根据一示例性实施方式示出的一种电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器终端设备和/或微控制器终端设备中实现这些功能实体。
此外,在本公开的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。
图1示出了可以应用本公开实施例的认知计算模型的更新方法的示例性系统架构的示意图。
本公开实施例中,系统架构可以包括一个或多个区域,每个区域可以包括多个设备,可以从每个区域中的多个设备中选择其中一个设备作为该区域的聚合器,例如在当前周期可以将某区域的某设备作为该区域的当前聚合器,在下一周期可以将某区域的另一设备作为该区域的下一聚合器,其中,当前聚合器和下一聚合器可以是同一设备,也可以是不同设备。
本公开实施例中,设备也可以称为本地工业设备,其可以是具有收集数据和计算能力的各种设备。例如可以是服务器或终端设备,其中服务器可以是提供各种服务的服务器,例如对用户利用终端设备所进行操作的装置提供支持的后台管理服务器。后台管理服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端设备;终端设备可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、可穿戴智能设备、虚拟现实设备、增强现实设备等,但并不局限于此。
需要说明的是,本公开实施例中的“区域”可以是物理上的区域,例如甲地区、乙地区;也可以是人为规定的虚拟区域,例如甲公司对应的设备所在区域、乙公司对应的设备所在区域,本公开对此不做限定。
参考图1,例如可以有三个区域,分别称为第一区域、第二区域和第三区域,第一区域包括多个第一设备,第二区域包括多个第二设备,第三区域包括多个第三设备。
以第一区域为例,在第一区域中,可以从多个第一设备中选择其中一个作为聚合器(例如聚合器11是从第一区域中的多个第一设备中选出的),每个第一设备(例如本地工业设备12和本地工业设备13)可以获取当前全局模型参数,其中当前全局模型参数是上一聚合器(上一聚合器也是从第一区域中的多个第一设备中选出的,上一聚合器可以是当前的聚合器11,也可以是本地工业设备12或本地工业设备13)根据第一区域的各个设备的认知计算模型的当前参数确定的。
本地工业设备12、本地工业设备13和聚合器11可以分别根据当前全局参数对其自己的第一设备的认知计算模型的当前参数进行迭代更新,分别确定本地工业设备12、本地工业设备13和聚合器11各自的认知计算模型的更新参数。
本地工业设备12和本地工业设备13可以将各自的认知计算模型的更新参数上传至聚合器11,聚合器11可以对本地工业设备12、本地工业设备13、以及聚合器11的认知计算模型的更新参数进行聚合,获得下一全局模型参数。
在下一轮的更新中,可以重新从本地工业设备中确定新的聚合器,新的聚合器可以和当前聚合器是同一本地工业设备,也可以是不同的本地工业设备,例如下一轮中,可以将本地工业设备12作为新的聚合器。
则各个第一设备可以获取下一全局模型参数,根据下一全局模型参数更新各个第一设备各自的认知计算模型的参数,确定各个第一设备各自的认知计算模型的更新参数,并将各个第一设备各自的认知计算模型的更新参数上传至新的聚合器,新的聚合器对各个第一设备各自的认知计算模型的更新参数进行聚合,获得再下一轮的全局模型参数。
上述是以第一区域为例进行说明,第二区域中各个第二设备(例如聚合器21、本地工业设备22、本地工业设备23)的认知计算模型的更新过程、以及第三区域中各个第三设备(例如聚合器31、本地工业设备32、本地工业设备33)的认知计算模型的更新过程和第一区域类似,本公开在此不再赘述。
本公开实施例中,一方面,各个设备之间可以进行模型之间的交互,而不是原始数据的交互,各个设备在更新自己的认知计算模型时可以综合其他设备的模型参数,这样既可以保证隐私和数据安全,又可以避免数据孤岛问题;另一方面,上一聚合器和当前聚合器均是从各个设备中确定的,即不同时间的聚合器可以是不同设备,由此可以避免单点故障的问题。
本公开实施例中,继续参考图1,各个本地工业设备可以从区块链获取全局模型参数,也可以将各自的认知计算模型的相关参数存储至区块链中;各个聚合器可以从区块链获取各个本地工业设备的认知计算模型的相关参数,也可以将全局模型参数存储至区块链中,以保证数据安全。
本公开实施例中,继续参考图1,不同区域之间也可以进行模型之间的交互,例如聚合器11可以将第一区域的认知计算模型发送给聚合器12,聚合器12可以使用在自己的设备上部署该认知计算模型进行使用,这样不同区域之间的设备在更新自己的认知计算模型时可以综合其他区域的设备的模型参数,这样既可以保证隐私和数据安全,又可以避免数据孤岛问题。
在一些实施例中,可以从聚合器11、聚合器12和聚合器13中确定一个目标聚合器,在每次聚合时,各个区域的设备先将模型参数上传至各个区域的聚合器(例如本地工业设备12和本地工业设备13将其模型参数上传至聚合器11,本地工业设备22和本地工业设备23将其模型参数上传至聚合器21,本地工业设备32和本地工业设备33将其模型参数上传至聚合器31),然后各个聚合器再将模型参数上传至目标聚合器(例如目标聚合器是聚合器12,则聚合器11和聚合器13分别将模型参数上传至聚合器12)使用目标聚合器进行所有区域的模型参数的聚合,这样既可以节约数据传输资源,又可以综合各个区域的模型参数。
应该理解,图1中的本地工业设备、聚合器仅仅是示意性的,根据实际需要,可以具有任意数目的本地工业设备、聚合器。
需要注意的是,上述应用场景仅是为了便于理解本公开的精神和原理而示出,本公开的实施方式在此方面不受任何限制。相反,本公开的实施方式可以应用于适用的任何场景。
下面,将结合附图及实施例对本公开示例实施例中的认知计算模型的更新方法的各个步骤进行更详细的说明。
图2是根据一示例性实施方式示出的一种认知计算模型的更新方法的流程图。本公开实施例提供的方法可以应用于各个设备(为了便于说明,下面均以各个设备其中一个(即第一设备)为例),第一设备例如可以是图1实施例的任意一个本地工业设备,但本公开并不限定于此。
如图2所示,本公开实施例提供的认知计算模型的更新方法可以包括以下步骤。
在步骤S202中,获取当前全局模型参数,其中当前全局模型参数是上一聚合器根据第一设备所在区域的各个设备的认知计算模型的当前参数确定的。
本公开实施例中,第一设备可以从聚合器直接获取当前全局模型参数,也可以从区块链的目标区块中获取聚合器上传的当前全局模型参数。其中当前全局模型参数是上一轮的聚合器根据第一设备所在区域的各个设备的认知计算模型的当前参数聚合得到的。
本公开实施例中,每个设备都会存储一系列的本地数据,所有本地数据都可以遵循独立的分布。
本公开实施例中,聚合器是从各个设备中确定的,即聚合器是各个设备中的某一设备;聚合器可以是临时的,在上一轮中的聚合器和本轮中的聚合器可以是同一设备,也可以不同的设备。
不同于相关技术中的专用中央服务器,本公开实施例中的临时的聚合器是从各个设备中确定的(以往的专用中央服务器将被选定的临时聚合器所取代),因此可以避免由于特定的专用中央服务器发生故障而导致整个系统发生故障的问题,即可以避免单点故障的问题。
本公开实施例中,聚合器和各个设备(例如图1中的本地工业设备)共同维护相同的学习模型(即认知计算模型),以实现高性能认知计算,每个工业设备通过训练其本地数据来维护本地模型。
其中,认知计算是建立在人工智能和信号处理背后的科学原理之上的技术,目标是让计算机等终端机器像人脑一样学习和处理思想;认知计算模型是一种能够主动学习,并且根据需求自行分析数据中的有价值信息,主动进行数据计算处理的模型。
本公开实施例中,各个设备可以根据实际的应用场景训练各自的认知计算模型,例如可以是语音识别模型,根据用户的语音信息识别出指令信息;又例如可以是文本识别模型,根据用户输入的图像识别出其中的文本信息;再例如可以是人脸识别模型,根据用户输入的图像识别人脸信息;再例如可以是数据处理模型,根据用户浏览购物平台的行为为用户推荐适合的商品等等,本公开对此不做限定。
在步骤S204中,根据当前全局模型参数对第一设备的认知计算模型的当前参数进行迭代更新,确定第一设备的认知计算模型的更新参数。
本公开实施例中,第一设备可以根据当前全局模型参数对第一设备的认知计算模型的当前参数进行迭代更新,通过预定义的损耗函数,使用随机方差减少梯度算法维护其认知计算模型,确定第一设备的认知计算模型的更新参数。其中预定义的损耗函数例如可以是任意一种损失函数,本公开对此不做限定。
在示例性实施例中,根据当前全局模型参数对第一设备的认知计算模型的当前参数进行迭代更新,确定第一设备的认知计算模型的更新参数,包括:根据当前全局模型参数和第一设备的认知计算模型的当前参数,得到第一设备的认知计算模型的下一参数;当第一设备的认知计算模型的当前参数与下一参数之间的相对误差小于预设阈值时,结束迭代更新,以确定第一设备的认知计算模型的更新参数。
本公开实施例中,可以将当前全局模型参数和第一设备的认知计算模型的当前参数输入至预定义的损耗函数中,得到第一设备的认知计算模型的下一参数;当第一设备的认知计算模型的当前参数与下一参数之间的相对误差小于预设阈值时,结束迭代更新,将此时的下一参数确定为第一设备的认知计算模型的更新参数。其中,预设阈值可以根据实际情况设置,本公开对此不做限定。
其中终止迭代过程的约束可以由认知计算的准确性要求决定。例如用ε表示约束条件,其中ε是一个正常数,当|w(l)-w(l-1)|≤ε时结束迭代更新,其中w(l)表示下一参数,w(l -1)表示当前参数。
在步骤S206中,将第一设备的认知计算模型的更新参数上传至第一设备所在区域的当前聚合器,以对各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数。
其中各个设备即为第一设备所在区域内的各个设备,各个设备可以包括第一设备;上一聚合器和当前聚合器均是从各个设备中确定的,上一聚合器和当前聚合器可以是同一设备,也可以是不同设备。
本公开实施例中,全局模型参数可以是聚合器的聚合模型的参数,聚合模型可以是神经网络模型,也可以是数学模型,用于对各个设备的认知计算模型的参数进行聚合。例如聚合器可以使用分布式近似牛顿实现各个设备的认知计算模型的聚合。
本公开实施例中,在聚合器对对各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数之后,各个设备可以获取下一全局参数,使用下一全局参数对各个设备各自的认知计算模型的参数继续进行迭代更新,确定各个设备各自的认知计算模型的更新参数,再将更新参数至下一聚合器进行参数聚合。
本公开实施例提供的认知计算模型的更新方法,聚合器可以根据各个设备各自的认知计算模型的当前参数确定当前全局模型参数,第一设备可以根据当前全局模型参数和第一设备的认知计算模型的当前参数确定该认知计算模型的更新参数;第一客户端将该认知计算模型的更新参数上传至聚合器,以使聚合器根据各个设备的认知计算模型的更新参数确定下一全局模型参数;一方面,由于当前全局模型参数是根据各个设备各自的认知计算模型的当前参数确定的,在第一设备更新其认知计算模型的参数时,可以综合其他设备的模型参数,这样既可以保证隐私和数据安全,又可以避免数据孤岛问题;另一方面,上一聚合器和当前聚合器均是从各个设备中确定的,即不同时间的聚合器可以是不同设备,由此可以避免单点故障的问题。
图3是根据一示例性实施方式示出的另一种认知计算模型的更新方法的流程图。
如图3所示,本公开实施例提供的认知计算模型的更新方法可以包括以下步骤。
在步骤S302中,从区块链的目标区块获取当前全局模型参数,其中当前全局模型参数是上一聚合器根据第一设备所在区域的各个设备的认知计算模型的当前参数确定的。
其中目标区块可以是当前区块链上最新的区块,目标区块可以是由上一聚合器生成的,上一聚合器对第一设备所在区域的各个设备的认知计算模型的当前参数进行聚合得到当前全局模型参数,将其存储至目标区块中。
在示例性实施例中,目标区块包括目标区块体,目标区块体中存储有当前全局模型参数。
本公开实施例中,目标区块可以包括区块头和区块体,其中区块头存储前一区块的散列值、区块的生成速率和一致性信息,区块体存储当前全局模型参数,还可以存储各个设备的认知计算模型的当前参数;聚合器可以看作是区块链中的矿工,区块链使用的POW(Proof of Work,工作量证明)共识算法,引入链上和链外结构提高存储性能,将原始数据存储在链外哈希表中,将指针保存在分布式公共分类账中。此外,还可以使用激励机制和平均机制,以及数据奖励和令牌奖励。其中设备的数据奖励与其相应的数据样本大小成比例。类似地,令牌奖励也与所有相关设备的聚合数据样本大小成比例,这两种激励机制共同激励矿工贡献本地数据和计算资源,从而提高了效率,促进了认知计算。
在步骤S304中,根据当前全局模型参数对第一设备的认知计算模型的当前参数进行迭代更新,确定第一设备的认知计算模型的更新参数。
图3实施例中的步骤S304和图2实施例中的步骤S204类似,可以参照步骤S204的描述,本公开在此不再赘述。
在步骤S306中,将第一设备的认知计算模型的更新参数上传至第一设备所在区域的当前聚合器,以对各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,并将下一全局模型参数存储至目标区块的下一区块中。
在示例性实施例中,目标区块的下一区块包括下一区块体,下一区块体中存储有下一全局模型参数。下一区块的结构和目标区块的结构类似,本公开在此不再赘述。
本公开实施例中,第一设备(也可称为本地设备)将认知计算模型(也可称为本地模型参数)上传到当前聚合器(也是矿工);矿工依次验证第一设备的模型参数和计算时间,具体地,验证计算时间是否与数据大小成正比;验证后的数据可以存储在矿工的潜在区块中,直到所有模型参数都被验证并存储在一个区块中。
本公开实施例中,当其中一个矿工找到随机数并生成一个新的区块,可以广播全网,该矿工有生成区块的权利;该矿工用新区块广播给所有各方;系统中的所有矿工都将新区块附加到他们的本地分类账上。为防止分叉,如果矿工未识别任何分叉,则可以使用并传输专门设计的信号进行响应;每个矿工在收到所有其他矿工的响应后采取行动。如果没有收到其他矿工的响应,进程可以被暂停并从头开始迭代。
本公开实施例中,所选矿工可以使用分布式近似牛顿聚合所有本地模型参数,之后,将新的全局参数将存储在目标区块的下一区块中。各个设备可以从下一区块下载新的全局模型参数。
本公开实施例中,将区块链和认知计算模型结合,相当于得到了去中心化认知计算模型,通过部署区块链作为底层架构,所有本地设备都可以被视为区块链的矿工或用户。使用区块链的验证机制可以保证数据的真实性,同时选择优质可信的边缘设备,奖励和隐私保护机制为用户参与学习过程提供了足够的激励,并获得与贡献成正比的奖励。此外,通过去中心化认知计算,每个参与者都可以领导学习过程,防止了单点故障。
图4是根据一示例性实施方式示出的一种基于区块链的认知计算模型的更新的示意图。
参考图4,上一聚合器可以对第一设备所在区域的各个设备的认知计算模型的当前参数进行聚合得到当前全局模型参数,将其存储至目标区块401中。
继续参考图4,第一设备403、第一设备404和第一设备405可以分别从区块链的目标区块获取当前全局模型参数;第一设备403、第一设备404和第一设备405可以分别根据当前全局模型参数对其各自的认知计算模型的当前参数进行迭代更新,确定更新参数;第一设备403、第一设备404和第一设备405可以分别将更新参数上传至当前聚合器406;当前聚合器406对各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,并生成新的区块402作为目标区块401的下一区块,并将下一全局模型参数存储至新的区块402。
本公开实施例中,各个本地工业设备可以从区块链获取全局模型参数,也可以将各自的认知计算模型的相关参数存储至区块链中;聚合器可以从区块链获取各个本地工业设备的认知计算模型的相关参数,也可以将全局模型参数存储至区块链中,以保证数据安全。
本公开实施例提供的认知计算模型的更新方法,联合使用联邦学习和区块链技术,提升了认知计算模型的准确性和激励机制方面的性能,既可以保证隐私和数据安全,又可以避免数据孤岛问题,同时可以避免单点故障的问题。
图5是根据一示例性实施方式示出的再一种认知计算模型的更新方法的流程图。
图5实施例提供的认知计算模型的更新方法中,在存在多个区域的情况下,可以从各个区域的聚合器中选择一个作为目标聚合器,例如在上一周期可以将某个区域的上一聚合器作为上一目标聚合器,在当前周期可以将某个区域的当前聚合器作为当前目标聚合器,在下一周期可以将某个区域的下一聚合器作为下一目标聚合器,其中,上一目标聚合器、当前目标聚合器和下一目标聚合器可以是同一设备,也可以是不同设备。其他聚合器将各自区域内的各个设备的认知计算模型的参数发送至目标聚合器,目标聚合器对各个设备的认知计算模型的参数进行聚合。
下面对图5实施例提供的认知计算模型的更新方法的具体步骤进行说明。
在步骤S502中,获取当前全局模型参数,其中当前全局模型参数是上一目标聚合器根据第一设备所在区域的各个设备的认知计算模型的当前参数确定的,其中第一设备所在区域为第一区域。
参考图1,例如可以有三个区域,分别称为第一区域、第二区域和第三区域,第一区域包括多个第一设备,第二区域包括多个第二设备,第三区域包括多个第三设备。
例如,在上一周期,将聚合器12作为上一目标聚合器,则聚合器12对第一区域、第二区域、以及第三区域的各个设备的认知计算模型的当前参数进行聚合,得到当前全局模型参数。各个区域中的各个第一设备可以获取当前全局模型参数。
在示例性实施例中,从区块链的目标区块获取当前全局模型参数。
在步骤S504中,根据当前全局模型参数对第一设备的认知计算模型的当前参数进行迭代更新,确定第一设备的认知计算模型的更新参数。
各个区域的各个设备可以根据当前全局模型参数对各自的认知计算模型的当前参数进行迭代更新,确定各自的认知计算模型的更新参数。
图5实施例中的步骤S504和图2实施例中的步骤S204类似,可以参照步骤S204的描述,本公开在此不再赘述。
在步骤S506中,将第一设备的认知计算模型的更新参数上传至第一区域的当前聚合器,以使第一区域的当前聚合器和其他区域的当前聚合器通过竞争确定出当前目标聚合器,并通过当前目标聚合器对各个区域的各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数。
本公开实施例中,第一区域的当前聚合器和其他区域的当前聚合器进行竞争可以是第一区域的当前聚合器和其他区域的当前聚合器针对计算能力进行比较,将计算能力较好的当前聚合器作为目标聚合器。
本公开实施例中,也可以从当前聚合器中随机选择一个作为当前目标聚合器。
结合图1,第一区域内的各个第一设备将各自的认知计算模型的更新参数上传至第一区域的当前聚合器11,第二区域内的各个第二设备将各自的认知计算模型的更新参数上传至第二区域的当前聚合器21,第三区域内的各个第三设备将各自的认知计算模型的更新参数上传至第三区域的当前聚合器31。
例如在当前周期,第一区域的当前聚合器11、第二区域的当前聚合器21和第三区域的当前聚合器31通过竞争确定出当前目标聚合器为当前聚合器31,则当前聚合器11将第一区域内的各个认知计算模型的更新参数发送至当前目标聚合器、当前聚合器21将第二区域内的各个认知计算模型的更新参数发送至当前目标聚合器,当前目标聚合器对第一区域、第二区域、以及第三区域的各个设备的认知计算模型的更新参数进行聚合,得到下一全局模型参数。
在示例性实施例中,在获得下一全局模型参之后,可以通过当前目标聚合器将下一全局模型参数存储至目标区块的下一区块中。
本公开实施例中,继续参考图1,不同区域之间也可以进行模型之间的交互,例如聚合器11可以将第一区域的认知计算模型发送给聚合器12,聚合器12可以使用在自己的设备上部署该认知计算模型进行使用,这样不同区域之间的设备在更新自己的认知计算模型时可以综合其他区域的设备的模型参数,这样既可以保证隐私和数据安全,又可以避免数据孤岛问题。
图6是根据一示例性实施方式示出的再一种认知计算模型的更新方法的流程图。
在区块链支持的联合学习中,高可用性允许终端设备随时离开并加入学习过程。但是,内部恶意设备很容易发起中毒攻击,以误导输出。为此,图6实施例提供的方法可以识别异常设备(例如攻击设备),便于后续对异常设备进行处理,以提高系统的稳定性。
如图6所示,在上述实施例的基础上,本公开实施例提供的认知计算模型的更新方法还可以包括以下步骤。
在步骤S602中,以全局模型参数作为状态空间,以第一设备所在区域的各个设备上传的认知计算模型的参数作为动作空间,构建当前聚合器的马尔科夫决策过程模型。
其中全局模型参数包括各个周期内的全局模型参数,例如当前全局模型参数和下一全局模型参数,认知计算模型的参数包括各个周期内的认知计算模型的参数,例如认知计算模型的当前参数和认知计算模型的下一参数。
其中,MDP(Markov Decision Process,马尔科夫决策过程),即当前时刻的状态仅与前一时刻的状态和动作有关。
本公开实施例中,可以对设备中的异常设备进行识别,为了验证识别能力,也可以预先设置一个异常设备(也可称为对手),对手可以主动收集以前的聚合器发布的全局模型参数,并分析收集的数据以发起渐进式攻击,聚合器可以通过改变策略来抵御对手的攻击。
具体地,可以对当前聚合器建立马尔科夫决策过程模型,以全局模型参数作为状态空间,以第一设备所在区域的各个设备上传的认知计算模型的参数作为动作空间;同时也可以对攻击设备建立马尔科夫决策过程模型。MDP受到概率状态转换的约束,例如可以使用六元组将建立的马尔科夫决策过程模型表示为{S,(A1,A2),R1,R2,Pr},其中S是状态的离散空间,A1是聚合器的动作空间,A2是对手的动作空间,R1是聚合器的收益函数,R2是攻击者的收益函数,R1和R2可以由聚合器的状态S1、对手的状态S2、聚合器的动作空间A1和对手的动作空间A2确定,Pr表示转移概率。
在步骤S604中,根据马尔科夫决策过程模型的状态空间和马尔科夫决策过程模型的动作空间确定马尔科夫决策过程模型的收益值,并根据收益值判断当前聚合器的全局模型参数是否存在异常。
本公开实施例中,当前聚合器的马尔科夫决策过程模型的收益值可以由当前聚合器的马尔科夫决策过程模型的状态空间和动作空间得到,根据收益值可以判断当前聚合器的全局模型参数是否存在异常,例如若当前聚合器的马尔科夫决策过程模型的收益值相比于之前的收益值远离收敛,则可以确定当前聚合器的全局模型参数存在异常。
在步骤S606中,若当前聚合器的全局模型参数存在异常,则确定第一设备所在区域的各个设备中存在异常设备。
本公开实施例中,若当前聚合器的全局模型参数存在异常,则确定第一设备所在区域的各个设备中存在异常设备(例如攻击设备)。
本公开实施例中,也可以使用攻击设备的马尔科夫决策过程模型的收益值作为输出。例如,若收益值为1,认为攻击成功;若收益值为0,则表示攻击失败;若收益值为0~1,认为发生部分攻击。
本公开实施例中,聚合器的目标是从长期角度最大化收益,而对手希望以相反的方式最小化收益。在这种情况下,该模型可以定义为基于给定MDP的动态零和博弈;通过纳什均衡理论,可以证明聚合者的目标是最大化,而对手将尽最大努力最小化。可以使用了Q-learning强化学习模型通过减少基数来降低计算复杂度,从而得到聚合器和对手的最优策略。
本公开实施例中,通过建立当前聚合器的马尔科夫过程决策模型,可以自动识别异常设备,便于后续对异常设备进行处理,以提高系统的稳定性。
还应理解,上述只是为了帮助本领域技术人员更好地理解本公开实施例,而非要限制本公开实施例的范围。本领域技术人员根据所给出的上述示例,显然可以进行各种等价的修改或变化,例如,上述方法中某些步骤可以是不必须的,或者可以新加入某些步骤等。或者上述任意两种或者任意多种实施例的组合。这样的修改、变化或者组合后的方案也落入本公开实施例的范围内。
还应理解,上文对本公开实施例的描述着重于强调各个实施例之间的不同之处,未提到的相同或相似之处可以互相参考,为了简洁,这里不再赘述。
还应理解,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
还应理解,在本公开的各个实施例中,如果没有特殊说明以及逻辑冲突,不同的实施例之间的术语和/或描述具有一致性、且可以相互引用,不同的实施例中的技术特征根据其内在的逻辑关系可以组合形成新的实施例。
上文详细介绍了本公开提供的认知计算模型的更新方法示例。可以理解的是,计算机设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本公开能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图7是根据一示例性实施方式示出的一种认知计算模型的更新装置装置的框图。
本公开实施例提供的认知计算模型的更新装置可以应用于第一设备,但本公开并不限定于此。
如图7所示,认知计算模型的更新装置700可以包括:获取模块702、更新模块704和聚合模块706。
其中,获取模块702用于获取当前全局模型参数,其中所述当前全局模型参数是上一聚合器根据所述第一设备所在区域的各个设备的认知计算模型的当前参数确定的;更新模块704用于根据所述当前全局模型参数对所述第一设备的认知计算模型的当前参数进行迭代更新,确定所述第一设备的认知计算模型的更新参数;聚合模块706用于将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,其中所述上一聚合器和所述当前聚合器均是从所述各个设备中确定的。
在示例性实施例中,获取模块702用于从区块链的目标区块获取当前全局模型参数;聚合模块706用于将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,并将所述下一全局模型参数存储至所述目标区块的下一区块中。
在示例性实施例中,更新模块704用于根据所述当前全局模型参数和所述第一设备的认知计算模型的当前参数,得到所述第一设备的认知计算模型的下一参数;当所述第一设备的认知计算模型的当前参数与下一参数之间的相对误差小于预设阈值时,结束迭代更新,以确定所述第一设备的认知计算模型的更新参数。
在示例性实施例中,所述目标区块包括目标区块体,所述目标区块体中存储有所述当前全局模型参数;所述目标区块的下一区块包括下一区块体,所述下一区块体中存储有所述下一全局模型参数。
在示例性实施例中,所述上一聚合器为上一目标聚合器,所述第一设备所在区域为第一区域;其中,聚合模块706用于将所述第一设备的认知计算模型的更新参数上传至所述第一区域的当前聚合器,以使所述第一区域的当前聚合器和其他区域的当前聚合器通过竞争确定出当前目标聚合器,并通过所述当前目标聚合器对各个区域的各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数。
在示例性实施例中,获取模块702用于从区块链的目标区块获取当前全局模型参数;聚合模块706用于将所述第一设备的认知计算模型的更新参数上传至所述第一区域的当前聚合器,以使所述第一区域的当前聚合器和其他区域的当前聚合器通过竞争确定出当前目标聚合器,通过所述当前目标聚合器对各个区域的各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,并通过所述当前目标聚合器将所述下一全局模型参数存储至所述目标区块的下一区块中。
在示例性实施例中,装置700还可以包括:构建模块,用于以全局模型参数作为状态空间,以所述第一设备所在区域的各个设备上传的认知计算模型的参数作为动作空间,构建所述当前聚合器的马尔科夫决策过程模型,其中所述全局模型参数包括所述当前全局模型参数和所述下一全局模型参数,所述认知计算模型的参数包括所述认知计算模型的当前参数和所述认知计算模型的下一参数;判断模块,用于根据所述马尔科夫决策过程模型的状态空间和所述马尔科夫决策过程模型的动作空间确定所述马尔科夫决策过程模型的收益值,并根据所述收益值判断所述当前聚合器的全局模型参数是否存在异常;确定模块,用于若所述当前聚合器的全局模型参数存在异常,则确定所述第一设备所在区域的各个设备中存在异常设备。
需要注意的是,上述附图中所示的框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器终端设备和/或微控制器终端设备中实现这些功能实体。
图8是根据一示例性实施方式示出的一种电子设备的结构示意图。需要说明的是,图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有电子设备800操作所需的各种程序和数据。CPU 801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被中央处理单元(CPU)801执行时,执行本公开的系统中限定的上述功能。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、终端设备或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、终端设备或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、终端设备或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括发送单元、获取单元、确定单元和第一处理单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,发送单元还可以被描述为“向所连接的服务端发送图片获取请求的单元”。
作为另一方面,本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现如图2所示的各个步骤。
根据本公开的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例的各种可选实现方式中提供的方法。
需要理解的是,在本公开附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种认知计算模型的更新方法,其特征在于,应用于第一设备,所述方法包括:
获取当前全局模型参数,其中所述当前全局模型参数是上一聚合器根据所述第一设备所在区域的各个设备的认知计算模型的当前参数确定的;
根据所述当前全局模型参数对所述第一设备的认知计算模型的当前参数进行迭代更新,确定所述第一设备的认知计算模型的更新参数;
将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,其中所述上一聚合器和所述当前聚合器均是从所述各个设备中确定的。
2.根据权利要求1所述的方法,其特征在于,获取当前全局模型参数,包括:
从区块链的目标区块获取当前全局模型参数;
其中,将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,包括:
将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,并将所述下一全局模型参数存储至所述目标区块的下一区块中。
3.根据权利要求1或2所述的方法,其特征在于,根据所述当前全局模型参数对所述第一设备的认知计算模型的当前参数进行迭代更新,确定所述第一设备的认知计算模型的更新参数,包括:
根据所述当前全局模型参数和所述第一设备的认知计算模型的当前参数,得到所述第一设备的认知计算模型的下一参数;
当所述第一设备的认知计算模型的当前参数与下一参数之间的相对误差小于预设阈值时,结束迭代更新,以确定所述第一设备的认知计算模型的更新参数。
4.根据权利要求2所述的方法,其特征在于,所述目标区块包括目标区块体,所述目标区块体中存储有所述当前全局模型参数;所述目标区块的下一区块包括下一区块体,所述下一区块体中存储有所述下一全局模型参数。
5.根据权利要求1所述的方法,其特征在于,所述上一聚合器为上一目标聚合器,所述第一设备所在区域为第一区域;
其中,将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,包括:
将所述第一设备的认知计算模型的更新参数上传至所述第一区域的当前聚合器,以使所述第一区域的当前聚合器和其他区域的当前聚合器通过竞争确定出当前目标聚合器,并通过所述当前目标聚合器对各个区域的各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数。
6.根据权利要求5所述的方法,其特征在于,获取当前全局模型参数,包括:
从区块链的目标区块获取当前全局模型参数;
其中,将所述第一设备的认知计算模型的更新参数上传至所述第一区域的当前聚合器,以使所述第一区域的当前聚合器和其他区域的当前聚合器通过竞争确定出当前目标聚合器,并通过所述当前目标聚合器对各个区域的各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,包括:
将所述第一设备的认知计算模型的更新参数上传至所述第一区域的当前聚合器,以使所述第一区域的当前聚合器和其他区域的当前聚合器通过竞争确定出当前目标聚合器,通过所述当前目标聚合器对各个区域的各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,并通过所述当前目标聚合器将所述下一全局模型参数存储至所述目标区块的下一区块中。
7.根据权利要求1所述的方法,其特征在于,还包括:
以全局模型参数作为状态空间,以所述第一设备所在区域的各个设备上传的认知计算模型的参数作为动作空间,构建所述当前聚合器的马尔科夫决策过程模型,其中所述全局模型参数包括所述当前全局模型参数和所述下一全局模型参数,所述认知计算模型的参数包括所述认知计算模型的当前参数和所述认知计算模型的下一参数;
根据所述马尔科夫决策过程模型的状态空间和所述马尔科夫决策过程模型的动作空间确定所述马尔科夫决策过程模型的收益值,并根据所述收益值判断所述当前聚合器的全局模型参数是否存在异常;
若所述当前聚合器的全局模型参数存在异常,则确定所述第一设备所在区域的各个设备中存在异常设备。
8.一种认知计算模型的更新装置,其特征在于,应用于第一设备,所述装置包括:
获取模块,用于获取当前全局模型参数,其中所述当前全局模型参数是上一聚合器根据所述第一设备所在区域的各个设备的认知计算模型的当前参数确定的;
更新模块,用于根据所述当前全局模型参数对所述第一设备的认知计算模型的当前参数进行迭代更新,确定所述第一设备的认知计算模型的更新参数;
聚合模块,用于将所述第一设备的认知计算模型的更新参数上传至所述第一设备所在区域的当前聚合器,以对所述各个设备的认知计算模型的更新参数进行聚合,获得下一全局模型参数,其中所述上一聚合器和所述当前聚合器均是从所述各个设备中确定的。
9.一种电子设备,其特征在于,包括:
至少一个处理器;
存储装置,用于存储至少一个程序,当所述至少一个程序被所述至少一个处理器执行时,使得所述至少一个处理器实现如权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211216000.6A CN117807634A (zh) | 2022-09-30 | 2022-09-30 | 认知计算模型的更新方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211216000.6A CN117807634A (zh) | 2022-09-30 | 2022-09-30 | 认知计算模型的更新方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117807634A true CN117807634A (zh) | 2024-04-02 |
Family
ID=90424193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211216000.6A Pending CN117807634A (zh) | 2022-09-30 | 2022-09-30 | 认知计算模型的更新方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117807634A (zh) |
-
2022
- 2022-09-30 CN CN202211216000.6A patent/CN117807634A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814985B (zh) | 联邦学习网络下的模型训练方法及其相关设备 | |
CN110084377B (zh) | 用于构建决策树的方法和装置 | |
CN108427939B (zh) | 模型生成方法和装置 | |
CN109146490B (zh) | 区块生成方法、装置和系统 | |
CN112949760B (zh) | 基于联邦学习的模型精度控制方法、装置及存储介质 | |
CN109669986A (zh) | 基于区块链的黑名单共享方法、装置、设备和存储介质 | |
CN111401558A (zh) | 数据处理模型训练方法、数据处理方法、装置、电子设备 | |
CN110852882B (zh) | 用于区块链网络的分组共识方法、装置、设备和介质 | |
CN115344841A (zh) | 基于区块链网络的元宇宙访问方法和区块链网络装置 | |
CN113726890B (zh) | 面向区块链数据服务的联邦预言方法及系统 | |
CN113051239A (zh) | 数据共享方法、应用其的模型的使用方法及相关设备 | |
CN111815169A (zh) | 业务审批参数配置方法及装置 | |
CN115114329A (zh) | 数据流异常检测的方法、装置、电子设备和存储介质 | |
CN112348197A (zh) | 基于联邦学习的模型生成方法及装置 | |
CN116629379A (zh) | 联邦学习聚合方法及装置、存储介质及电子设备 | |
CN110276403B (zh) | 模型建立方法和装置 | |
US20230418794A1 (en) | Data processing method, and non-transitory medium and electronic device | |
CN113630476B (zh) | 应用于计算机集群的通信方法及通信装置 | |
CN117807634A (zh) | 认知计算模型的更新方法、装置、设备及存储介质 | |
CN115906177A (zh) | 集合安全求交方法、装置、电子设备及存储介质 | |
CN113487041B (zh) | 横向联邦学习方法、装置及存储介质 | |
CN110635993A (zh) | 用于合成多媒体信息的方法和设备 | |
CN114629735B (zh) | 基于多方状态通道的状态交互方法、装置、设备及介质 | |
US20230289852A1 (en) | Expert Platform System and Method | |
CN115936706B (zh) | 一种基于区块链的数据要素辅助交易方法、装置和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |