CN114202018A - 一种模块化的联合学习方法及系统 - Google Patents

一种模块化的联合学习方法及系统 Download PDF

Info

Publication number
CN114202018A
CN114202018A CN202111435052.8A CN202111435052A CN114202018A CN 114202018 A CN114202018 A CN 114202018A CN 202111435052 A CN202111435052 A CN 202111435052A CN 114202018 A CN114202018 A CN 114202018A
Authority
CN
China
Prior art keywords
joint learning
task
joint
participants
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111435052.8A
Other languages
English (en)
Inventor
张敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinzhi I Lai Network Technology Co ltd
Original Assignee
Xinzhi I Lai Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinzhi I Lai Network Technology Co ltd filed Critical Xinzhi I Lai Network Technology Co ltd
Priority to CN202111435052.8A priority Critical patent/CN114202018A/zh
Publication of CN114202018A publication Critical patent/CN114202018A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Evolutionary Computation (AREA)
  • Strategic Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开涉及机器学习技术领域,提供了一种模块化的联合学习方法及系统。该方法包括:根据参与方选定的联合学习场景,向参与方提供训练数据录入模版;基于参与方反馈的训练数据,将训练数据与联合学习场景进行关联,以得到关联逻辑关系网;利用关联逻辑关系网,按联合学习场景建立多个联合学习任务;将参与方申请的至少一个联合学习任务确定为目标联合学习任务;根据目标联合学习任务,启动训练与联合学习场景对应的参与方联合模型至满足预设的训练结束条件,向参与方反馈最终的联合模型。本公开很好地解决了用户为寻求合适的参与方、第三方需要花费大量时间、操作麻烦、成本较高的问题,且向用户提供一站式的联合学习交互式服务,用户体验佳。

Description

一种模块化的联合学习方法及系统
技术领域
本公开涉及机器学习技术领域,尤其涉及一种模块化的联合学习方法及系统。
背景技术
近年来,机器学习在人工智能应用领域中的发展势头迅猛,例如,计算机视觉、自动语音识别等,然而,这些机器学习技术的成功,尤其是深度学习,均需要依赖于大量的数据(也称为大数据)的基础之上。
通常,训练人工智能应用模型所需要的数据量是十分庞大的,例如,Facebook公司的目标检测系统是由来自Instagram的3.5亿张图像训练得到的。然而,在很多应用领域,单个企业所拥有的数据量十分有限,往往难以满足如此庞大的训练数据量要求。虽然通过收集多个企业的数据并传输至一个中心点 (如,一个数据中心),可以解决训练数据量不足的问题,但是随着人工智能在各行各业的应用落地,人们对于用户隐私和数据安全保护的关注度也越来越高。由此,可以确保用户数据隐私安全和更高的模型性能的联邦学习(联合学习)技术应运而生,并且迅速风靡机器学习领域。
然而,由于联合学习正处于新兴发展阶段,很多用户可能对联合学习并不了解,或者有些对联合学习有一定了解的用户,想要寻求合适的参与方、第三方进行协作训练,往往都是自行在线上或线下进行各种查询、筛选参与方和第三方,此过程十分耗时、麻烦,且成本较高,因此,用户体验非常差。同时,这也成为了制约联合学习的推广应用与发展的重要因素。
发明内容
有鉴于此,本公开实施例提供了一种模块化联合学习服务平台及系统,以解决现有技术中用户为寻求合适的参与方、第三方而需要花费大量时间、操作麻烦,且成本较高,从而在一定程度上制约了联合学习的推广应用与发展的问题。
本公开实施例的第一方面,提供了一种模块化的联合学习方法,包括:
根据参与方选定的联合学习场景,向参与方提供训练数据录入模版;
基于参与方反馈的训练数据,将训练数据与联合学习场景进行关联,以得到关联逻辑关系网;
利用关联逻辑关系网,按联合学习场景建立多个联合学习任务;
当参与方申请至少一个联合学习任务时,将参与方申请的至少一个联合学习任务确定为目标联合学习任务;
根据目标联合学习任务,启动训练与联合学习场景对应的参与方联合模型,当联合模型满足预设的训练结束条件时,向参与方反馈最终的联合模型。
本公开实施例的第二方面,提供了一种模块化的联合学习系统,包括:
模板提供模块,被配置为根据参与方选定的联合学习场景,向参与方提供训练数据录入模版;
关联模块,被配置为基于参与方反馈的训练数据,将训练数据与联合学习场景进行关联,以得到关联逻辑关系网;
任务建立模块,被配置为利用关联逻辑关系网,按联合学习场景建立多个联合学习任务;
目标任务确定模块,被配置为当参与方申请至少一个联合学习任务时,将参与方申请的至少一个联合学习任务确定为目标联合学习任务;
联合训练模块,被配置为根据目标联合学习任务,启动训练与联合学习场景对应的参与方联合模型,当联合模型满足预设的训练结束条件时,向参与方反馈最终的联合模型。
本公开实施例与现有技术相比存在的有益效果至少包括:通过根据参与方选定的联合学习场景,向参与方提供训练数据录入模版;基于参与方反馈的训练数据,将训练数据与联合学习场景进行关联,以得到关联逻辑关系网;利用关联逻辑关系网,按联合学习场景建立多个联合学习任务;当参与方申请至少一个联合学习任务时,将参与方申请的至少一个联合学习任务确定为目标联合学习任务;根据目标联合学习任务,启动训练与联合学习场景对应的参与方联合模型,当联合模型满足预设的训练结束条件时,向参与方反馈最终的联合模型,能够向用户提供一站式的联合学习交互式服务,包括帮助用户快速寻求到合适的参与方、第三方等综合性服务,很好地解决了用户为寻求合适的参与方、第三方而需要花费大量时间、操作麻烦,且成本较高的问题;并且,能够实现以保护数据主权、数据隐私为出发点,结合产业物联网的特性,站在生态用户的角度,让用户拥有参与联合学习、共享成果的绝佳体验,从而能够在一定程度上推动联合学习的推广应用和发展,具有广阔的市场前景。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例的应用场景的场景示意图;
图2是本公开实施例提供的一种模块化的联合学习方法的流程示意图;
图3是本公开实施例提供的一种模块化的联合学习系统的结构示意图;
图4是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
联合学习是综合利用多种AI(Artificial Intelligence,人工智能)技术,联合多方合作共同挖掘数据价值,催生基于联合建模的新的智能业态和模式。联合学习至少具有以下特点:
(1)在不同应用场景下,利用筛选和/或组合AI算法、隐私保护计算,建立多种模型聚合优化策略,以获取高层次、高质量的模型。
(2)基于多种模型聚合优化策略,获取提升联合学习引擎的效能方法,其中效能方法可以是通过解决包括计算架构并行、大规模跨域网络下的信息交互、智能感知、异常处理机制等,提升联合学习引擎的整体效能。
(3)获取各场景下多方用户的需求,通过互信机制,确定合理评估各联合参与方的真实贡献度,进行分配激励。
基于上述方式,可以建立基于联合学习的AI技术生态,充分发挥行业数据价值,推动垂直领域的场景落地。
下面将结合附图详细说明根据本公开实施例的一种模块化联合学习服务平台及系统。
图1是本公开实施例的一种联合学习的架构示意图。如图1所示,联合学习的架构可以包括模块化联合学习服务平台100,以及参与方102、参与方103 和参与方104。其中,模块化联合学习服务平台100可包括服务器(中心节点) 101。
在联合学习过程中,基本模型可以通过服务器101建立,服务器101将该模型发送至与其建立通信连接的参与方102、参与方103和参与方104。基本模型还可以是任一参与方建立后上传至服务器101,服务器101将该模型发送至与其建立通信连接的其他参与方。服务器101启动参与方102、参与方103和参与方104使用训练数据进行模型训练,获得更新的模型参数,并对参与方102、参与方103和参与方104发送的模型参数进行聚合,获得全局模型参数,并将全局模型参数传回至参与方102、参与方103和参与方104。参与方102、参与方103和参与方104根据接收的全局模型参数对各自的模型进行迭代,直到模型最终收敛,从而实现对模型的训练。需要说明的是,参与方的数量不限于如上的三个,而是可以根据需要进行设置,本公开实施例对此不作限制。
其中,模块化联合学习服务平台100除了可以为各参与方提供参数聚合、模型下发等服务,同时,还能为各参与方提供交互式的前端服务,例如,当参与方需要寻求其他参与方一起联合训练某个应用模型时,可以申请本公开提供的模块化联合学习服务平台100的前端界面上所展示的多个联合学习任务中的至少一个目标联合学习任务,在此期间,即将该参与方与其他共同参与同一联合学习场景的同一目标联合学习任务的参与方“联合在一起”,也就为该参与方寻求到合适的联合学习伙伴,无需该参与方再耗费精力和时间去寻求合适的其他参与方,从而能够节省大部分寻求合适参与方的开销。
图2是本公开实施例提供的一种模块化的联合学习方法的流程示意图。图 2的模块化的联合学习方法可以由图1的模块化联合学习服务平台100执行。
如图2所示,该模块化的联合学习方法包括:
步骤S201,根据参与方选定的联合学习场景,向参与方提供训练数据录入模板。
其中,联合学习场景,通常是指根据业务类型进行分类的业务场景,一般地,一个业务场景对应解决一类(或一个)业务问题,例如,民用建筑燃气用气业务场景会涉及到用气负荷预测这一类业务问题。又例如,商业用电的业务场景会涉及到用电负荷预测这一类业务问题。因此,根据上述分类标准,可以将不同业务划分出不同的业务场景(联合学习场景)。
当然,联合学习场景的划分还可以根据其他的标准来划分,例如,可根据企业类型来划分,具体地,可分为互联网企业联合学习场景、金融企业联合学习场景、医疗服务企业联合学习场景等。
作为一优选实施例,通常用户(参与方)只有原始数据,而这些原始数据一般都需要先经过数据预处理之后,才能作为联合训练的训练数据使用。为了能够快速地获取到能直接用于联合学习训练模型的训练数据,本实施例通过向参与方提供其所选定的联合学习场景(例如,用电负荷预测)对应的训练数据录入模板,该训练数据录入模板会有该联合学习场景的训练数据的相关录入要求,包括数据格式、数值范围以及其他要求。比如,参与方想要预测20xx年的年度负荷,就至少要提供前一年整年的负荷等说明内容。
作为一示例,在接收到参与方(用户)基于上述的训练数据录入模板录入的数据后,即获取到可用于该参与方所选定的联合学习场景(例如,用电负荷预测)的模型训练所需的训练数据。
步骤S202,基于参与方反馈的训练数据,将训练数据与联合学习场景进行关联,以得到关联逻辑关系网。
作为一示例,将训练数据与联合学习场景进行关联,以得到关联逻辑关系网,具体可以是,将训练数据与联合学习场景按照下表1的映射表进行存储,得到二者的关联逻辑关系网。
表1训练数据与联合学习场景的关联映射表
训练数据 联合学习场景
用气负荷训练数据 用气负荷预测
用电负荷训练数据 用电负荷预测
作为另一示例,将训练数据与联合学习场景进行关联,还可以形成以联合学习场景为主干,训练数据为枝干的树状图,从而得到二者的关联逻辑关系网。
步骤S203,利用关联逻辑关系网,按联合学习场景建立多个联合学习任务。
作为一示例,进一步的,可以根据上表1所构建的训练数据与联合学习场景的关联映射表,建立与每个联合学习场景对应的多个联合学习任务。例如,可建立如下表2所示的联合学习场景-联合学习任务-训练数据的对应关系表。
表2联合学习场景-联合学习任务-训练数据的对应关系表
Figure RE-GDA0003495008700000071
步骤S204,当参与方申请至少一个联合学习任务时,将参与方申请的至少一个联合学习任务确定为目标联合学习任务。
作为一示例,假设用户(参与方)选定的联合学习场景是用气负荷预测,那么可在模块化联合学习服务平台100的当前界面上展示联合学习任务选择界面。在该选择界面上显示的内容包括联合学习任务的名称、发起方、任务场景 (即联合学习场景)、任务状态、我的任务(即发起方发起的任务)、其他任务等内容。假设当前该选择界面上显示了5个联合学习任务,分别为01、02、 03、04、05,对应地可在界面上一并展示这5个联合学习任务的名称、发起方、任务场景(即联合学习场景)、任务状态等内容,以便于用户了解和选择申请其所需的联合任务。当用户点击申请其中的联合学习任务01和02,则将联合学习任务01和02确定为目标联合学习任务。
步骤S205,根据目标联合学习任务,启动训练与联合学习场景对应的参与方联合模型,当联合模型满足预设的训练结束条件时,向参与方反馈最终的联合模型。
其中,预设的训练结束条件,可以是训练轮数达到预设的轮数阈值,也可以是模型精度达到预设的精度。
本公开实施例提供的技术方案,通过根据参与方选定的联合学习场景,向参与方提供训练数据录入模版;基于参与方反馈的训练数据,将训练数据与联合学习场景进行关联,以得到关联逻辑关系网;利用关联逻辑关系网,按联合学习场景建立多个联合学习任务;当参与方申请至少一个联合学习任务时,将参与方申请的至少一个联合学习任务确定为目标联合学习任务;根据目标联合学习任务,启动训练与联合学习场景对应的参与方联合模型,当联合模型满足预设的训练结束条件时,向参与方反馈最终的联合模型,能够向用户提供一站式的联合学习交互式服务,包括帮助用户快速寻求到合适的参与方、第三方等综合性服务,很好地解决了用户为寻求合适的参与方、第三方而需要花费大量时间、操作麻烦,且成本较高的问题;并且,能够实现以保护数据主权、数据隐私为出发点,结合产业物联网的特性,站在生态用户的角度,让用户拥有参与联合学习、共享成果的绝佳体验,从而能够在一定程度上推动联合学习的推广应用和发展,具有广阔的市场前景。
在一些实施例中,在根据参与方选定的联合学习场景,向参与方提供训练数据录入模版之前,还包括如下步骤:
在当前界面上展示N个应用场景及其相关的介绍内容;
当接收到参与方对N个应用场景中的任意一个的选择操作时,将参与方选择的应用场景确定为联合学习场景,其中,N为≥1的正整数。
作为一示例,当检测到用户登陆在模块化联合学习服务平台注册的账户之后,当前界面可直接从登陆界面跳转至选择圈子(选择联合学习场景)的页面。在该页面上,可以采用一个矩形框(或者圆形框等,具体的展示框形状、形式可根据实际情况灵活设计)展示一个联合学习场景,其中,每个联合学习场景对应一个圈子,圈子的数量可以扩展。例如,可在当前页面上展示其中的1个场景,如用气负荷预测。此外,在每个圈子中可展示该场景的业务简介、图文并茂,以及目前支持的联合学习的方式(横向/纵向)、所用的算法、加密方式(如果有的话展示)、圈子活跃人数等信息,便于用户了解和选择合适的圈子并加入,即选定联合学习场景。
示例性的,用户可以选择加入其中的一个圈子,或者多个圈子,但是若要同时加入多个圈子,则必须要有与每个圈子匹配的训练数据才行。例如,某用户想要同时加入用气负荷预测和用电负荷预测这两个圈子,则该用户必须要同时拥有用气负荷数据和用电负荷数据才能同时加入这两个圈子。在用户选定加入圈子之后,上传的训练数据会与该圈子(联合学习场景)进行关联,即用电负荷预测与用电负荷数据关联,用气负荷预测与用气负荷数据关联。
在一些实施例中,上述步骤S202,包括:
接收参与方反馈的训练数据,对训练数据进行数据校验,获得校验结果;
若校验结果为检验合格,则将训练数据与联合学习场景进行关联,以得到关联逻辑关系网。
作为一示例,对参与方录入的训练数据进行数据校验,具体包括对参与方录入的训练数据的数据格式、数据质量、数据量、数据范围等进行校验,并获得相应的校验结果。
在本公开实施例中,可为每一类联合学习场景设置一对应的训练数据录入模板,并在设置该训练数据录入模板时,同时设置好每类联合学习场景对应的数据校验规则(包括数据格式、数据范围、数据质量等)。其中,数据格式通常采用CSV文件(逗号分隔值文件格式)。数据范围包括数据采集时间范围、数据点的具体取值范围等。数据量,是指数据的条数,例如,某企业在20XX 年一整年12个月的用气负荷数据(包括每个月的用气负荷数据,可以使月用气负荷均值),即有12条数据。数据质量,可以是是否有数据异常,比如,用气负荷数据通常是为非负值,若用户上传的数据中出现负值,那么,说明用户上传的数据异常,即有数据质量问题。
作为一示例,可根据预设的数据校验规则对用户(参与方)录入的训练数据进行数据校验,具体校验数据的数据格式是否正确、数据范围是否准确、数据质量是否有问题、数据量是否过少等,得到校验结果。
作为一示例,假设与某参与方(如企业A)想要预测20XX年的年度用电负荷,该企业A选定的联合学习场景为用电负荷预测,预设的该用电负荷预测 (联合学习场景)对应的数据校验规则是至少提供20XX年的前一年整年的用电负荷数据(即数据量不少于12条(按每月一条算)),数据格式为CSV文件,数据没有负值。用户可以通过点选当前的“新增数据”界面上展示的“下载数据模板”的选项来下载到相应的训练数据录入模板,并根据该模板的要求录入数据。例如,用户基于该模板录入了20XX年的前2年整年的用气负荷数据,共24条数据(每个月份一条),数据格式是CSV文件,且提供的数据中没有负值,那么根据上述数据校验规则对用户录入的训练数据进行检验,可判定该企业A录入的训练数据的校验结果为检验合格,则可根据上述步骤将训练数据与联合学习场景进行关联,以得到关联逻辑关系网。
其中,上述“新增数据”界面上包括“选择圈子”(即选择联合学习场景) 的下拉菜单选框、“下载数据模板”、“选择训练数据”,以及对于用户上传的训练数据的检验结果,若检验结果为不合格,那么可在该界面上展示具体数据不合格的原因的具体位置,以便于用户快速查找到异常数据的位置,并进行重新上传或修改后再上传。
在一些实施例中,上述步骤S204,包括:
获取参与方输入的任务筛选条件,根据任务筛选条件,筛选出与联合学习场景相关的多个联合学习任务;
当检测到参与方对多个联合学习任务中的至少一个任务的申请操作时,将参与方申请的至少一个联合学习任务确定为目标联合学习任务。
作为一示例,当用户(参与方)选定了某一联合学习场景(如,用电负荷预测),并上传好训练数据(如用电负荷数据)之后,可在界面上跳转至联合学习任务选择页面,在该页面上,用户(参与方)可看到与用电负荷预测这一联合学习场景相关的所有的联合学习任务列表,其中,该任务列表中包括我的任务和其他任务。在该页面上还设置有“任务名称”、“任务场景”(联合学习场景)、“任务状态”、“任务发起方”、“快速加入训练任务”这几个筛选条件栏,用户可以根据自己的实际情况,选择在上述筛选条件栏中输入相应的筛选条件,并点击“筛选”按钮,即可查看到符合其所输入的筛选条件的多个联合学习任务,并节省了用户大量翻找联合学习任务的时间,用户体验好。
具体的,可按照任务名称筛选,输入任务名,如输入“task_2”;也可按照任务场景筛选,下拉菜单里包括预设的所有支持的圈子(联合学习场景);也可以按照任务状态筛选,包括训练中、待训练、已完成三种状态;也可以任务发起方筛选,输入发起方名字,如输入“B”,还可以勾选快速加入框,即可以筛选出目前自己符合条件可参与联合的任务,这里预设有三个判断条件:①联合学习场景是否匹配(即用户输入的筛选条件所筛选出来的联合学习场景与其之前在上传训练数据时所选定的联合学习场景是否一致);②所筛选出来的联合学习任务是否允许其他参与方自动加入(这与任务发起方在创建任务时,在设置“是否允许自动增加参与方”项时是否勾选的为“是”这一选项);③任务状态是否是未开始(已经开始训练的任务不允许再中途加入),如果任务为未开始状态,在任务后面设置有“加入联合学习任务”的按钮。如果没有此按钮,则可提示用户暂无可直接参与的任务。
接着,若用户点击“加入联合学习任务”按钮后,界面上会弹出任务等待弹窗。其中,任务等待弹窗的页面设计可包括“任务配置”、“待训练”、“训练中”、“训练完成”的置顶进度管线段,在该管线段下,可展示参与方数量、参与方、排队等待时间、排队等待任务等信息。
在一些实施例中,在上述步骤S204之后,还包括:
获取参与方录入的任务创建内容;
根据任务创建内容生成创建任务,并将创建任务确定为目标联合学习任务。
作为一示例,结合前文的示例,当用户(参与方)在上述联合学习任务选择页面上展示与其所选定的联合学习场景相关的多个联合学习任务中没有看到合适的联合学习任务时,可以向模块化联合学习服务平台100发起联合学习任务创建请求。该联合学习任务创建请求包括该参与方的名称、目前所选定的联合学习场景等内容。
作为一示例,当服务平台接收到参与方发起的联合学习任务创建请求,该请求中包括参与方所选定的联合学习场景(用气负荷预测)时,可向该参与方展示创建任务的界面。
在一些实施例中,根据任务创建内容生成创建任务,并将创建任务确定为目标联合学习任务,具体包括:
确定参与方选定的联合学习场景,在任务创建界面上的任务参数栏自动配置与联合学习场景对应的预设任务参数;
当检测到参与方的创建任务确定操作时,根据任务名称和联合学习场景对应的预设任务参数,生成创建任务。
示例性的,可在创建任务的界面的顶部展示包括任务配置—待训练—训练中—训练完成这4个环节的进度管线段。当用户选中了其中的“任务配置”项,则界面上会显示任务配置页面。在该配置页面上,用户只需要填写任务名称和结束条件,其他的配置信息平台已经按照用户选定的联合学习场景默认配置好相应的参数,并关联用户之前准备的训练数据。若需要修改某些参数,用户可对需要修改的参数项进行修改即可。一般地,任务名称最多可填写10个字,避免题目过长不简洁。
示例性的,任务配置页面上的任务配置项可包括如下表3所示的任务配置内容。
表3任务配置内容
Figure RE-GDA0003495008700000121
Figure RE-GDA0003495008700000131
另外,对于超参配置,当用户选择了任务配置页面上的“查看详情”这一选项时,界面上会跳转至超参配置详情的页面。不同的联合学习任务一般会有不同的超参数配置内容,用户可进一步根据实际情况手动调试超参数的范围,或增加限制条件等。
作为一示例,当用户当前选定的是用气负荷预测场景下的联合学习任务02,那么其对应的超参配置详情页面上可展示如下表4所示的系统默认的超参数默认配置详情文档。
表4超参数配置文档
Figure RE-GDA0003495008700000132
Figure RE-GDA0003495008700000141
对于上述的参与方选择,包括两种模式,具体为模式一:系统自动匹配,模式二:自主选择参与方。关于模式一,在实际应用时,可根据用户(参与方) 所录入的训练数据的数据量来为用户自动匹配一定数量的参与方。一般情况下,参与方贡献的训练数据的数据量越多,那么系统为其自动匹配的其他参与方的数量也相对会较训练数据贡献量较少的用户的要多一些。在实际应用中,可预先设置好训练数据量范围与匹配参与方数量的对应关系。在实际匹配时,还需要进一步根据与该参与方(用户)当前所选定的联合学习场景的其他共同参与方的数量来进一步自动匹配。例如,预先设置的训练数据量在1000条以上,对应匹配的参与方数量为至少5个,如果此时,用户所选定的联合学习场景中仅有4个其他共同参与方,则为该用户自动匹配该联合学习场景中的所有参与方。又例如,按照训练数据贡献量对同一联合学习场景下的所有参与方进行排序,然后,按照用户的排序顺序,自动为用户匹配数据贡献量与之相当的其他参与方。
关于模式二,在实际应用时,可根据用户(参与方)选定的联合学习场景,筛选出符合该联合学习场景的参与方,供用户手动选择其所需要的参与方数量以及参与方。此模式适用于对模型性能要求较高的用户。
另外,可在模式二下方设置“是否允许自动增加参与方”的勾选框,若用户在该勾选框内勾选了“是”,则在该任务创建成功后,可允许其他参与方自动选择加入该任务,否则,不允许其他参与方自动选择加入该任务。
作为一示例,可在任务配置页面上设置“发起联合学习”按钮,当接收到用户点击任务配置页面上的“发起联合学习”按钮时,则完成任务创建,同时,界面会跳转至“待训练”页面。在该“待训练”页面上可展示发起方名称及其训练数据名称、参与方名称及其训练数据名称等信息。由于模块化联合学习服务平台是一个综合性的服务平台,需要处理的任务会比较多,通常一个用户一次只能在同一个联合学习场景下进行一个联合学习任务。如果前面的任务还没结束还,可在该界面上显示“排队等待中”、“排队时间XX”等信息以提醒用户当前的任务进行状态。
进一步的,若服务平台能计算出前面任务的等待时间,就在此界面显示最后半分钟的倒计时(此时,可将显示内容的字体放大些,或者突出显示等)。为了防止在同一界面上显示的参与方数量过多,从而影响界面的美观性,可设置在同一页面上显示6个~10个参与方,剩余的参与方可用“......”(即省略号) 表示。
示例性的,在该界面上,还可显示联合学习引擎图标、任务发起人标识(队长)、队长可以设置排在左边的第一个,其余参与方数量8/10,参与方的在线状态,如果在线就显示亮色,不在线则显示灰色。
在一些实施例中,上述参与方包括第一参与方和第二参与方。其中,第一参与方可为联合学习任务发起方,第二参与方为与第一参与方共同参与同一联合学习场景下的同一目标联合学习任务的其他参与方。
上述步骤,根据目标联合学习任务,启动训练与联合学习场景对应的参与方联合模型,当联合模型满足预设的训练结束条件时,向参与方反馈最终的联合模型,包括:
使用第一参与方反馈的训练数据对与联合学习场景对应的参与方联合模型进行训练,获得第一模型参数;
使用第二参与方反馈的训练数据对与联合学习场景对应的参与方联合模型进行训练,获得第二模型参数;
对第一模型参数和第二模型参数进行聚合,得到聚合参数;
使用聚合参数对参与方联合模型的模型参数进行更新,得到更新联合模型;
当更新联合模型满足预设的训练结束条件时,向第一参与方和第二参与方反馈最终的联合模型。
作为一示例,假设参与方A(假设其为任务发起方)与其他参与方B、C、 D共同参与同一联合学习场景(用气负荷预测)的同一目标联合学习任务“task_2”的模型训练。首先,模块化联合学习服务平台100可为每个参与方提供一个独立的训练空间,每个参与方可将其训练数据上传至其对应的训练空间中,并在确定各参与方选定目标联合学习任务后,向处于同一联合学习场景下的同一目标联合学习任务的各参与方(即参与方A与其他参与方B、C、D)分发一个基本模型;接着,在模块化联合学习服务平台100中,可模拟参与方A与其他参与方B、C、D使用各自上传的训练数据对该基本模型进行第一轮训练,训练完成后获得各自的第一轮模型参数,具体的,参与方A经第一轮训练获得第一模型参数,并上传至模块化联合学习服务平台100的服务器101,其他参与方B、 C、D经第一轮训练,分别获得第二模型参数b、第二模型参数c、第二模型参数d,并上传至服务器101。此时,服务器101在接收到参与方A与其他参与方B、C、D的第一模型参数以及第二模型参数b、第二模型参数c、第二模型参数d之后,对这些参数进行聚合(例如,采用FedAvg的聚合方式),获得聚合参数,并将该聚合参数分别返回给参与方A与其他参与方B、C、D,以使参与方A与其他参与方B、C、D可以使用该聚合参数对其第一轮训练结束后获得的模型参数进行更新,并采用更新了模型参数后的模型对训练数据进行第二轮训练,获得第二轮模型参数,再将第二轮模型参数上传至服务器101进行聚合,得到第二轮聚合参数,再返回至各参与方,各参与方使用该第二轮聚合参数对前一轮更新后的模型参数进行迭代更新,更新后再进行第三轮训练,如此重复上述训练更新步骤,直至达到预设的训练结束条件(如,训练轮数达到预设的训练轮数阈值100轮),向参与方A与其他参与方B、C、D的终端反馈最终的联合模型。
在一些实施例中,在根据目标联合学习任务,启动训练与联合学习场景对应的参与方联合模型之后,包括:
获取与参与方共同参与同一目标联合学习场景的同一联合学习任务的所有参与方的模型训练信息;
根据所有参与方的模型训练信息,生成联合训练过程结果,并展示给所有参与方,其中,模型训练信息包括所有参与方的模型训练日志信息。
作为一示例,假设当前参与方A(发起方)与其他参与方B、C、D、E、F 共同参与同一联合学习场景(如,用气负荷预测)的同一目标联合学习任务(如,“task_2”),当检测到上述各参与方使用各自的训练数据对基本模型进行训练时,获取上述各参与方的模型训练日志信息,包括,加入训练的时间点,训练轮次等。接着,根据所有参与方的模型训练信息,生成联合训练过程结果,并展示给所有参与方。
其中,上述模型训练过程结果包括静态显示各参与方的模型训练日志信息,以及动态显示各参与方共同训练的模型的性能表征曲线的实时变化图,使得各参与方能够更好地体验联合学习的过程。
当训练完成后,可在页面上以冒泡的方式提示用户“训练已完成”,也可在页面顶部的pipeline(管线段)进度条的“训练完成”处显示“打钩”状态。若在训练过程中出现严重异常情况(如只有一个参与方的数据正常,其他参与方的数据异常,即后续不能获得至少两个参与方的模型参数进行聚合,则无法进行后续的联合学习),则可在当前界面上显示“训练任务终止”的提示文字信息。若有至少两个参与方的数据正常,则联合学习任务仍可继续进行。
在一实施例中,上述方法还包括:
根据参与方选定的联合学习场景,向参与方提供与联合学习场景对应的测试数据录入模版;
接收参与方基于测试数据录入模版录入的测试数据,将测试数据输入最终的联合模型,输出测试结果。
作为一示例,在联合学习任务训练结束后,当用户点选当前界面上展示的“推演预测”这一选项时,进入“推演预测”页面。在该“推演预测”页面上,可设置“选择预测场景”对应的选择栏(包括下拉菜单),用户可根据实际需求,选择相应的联合学习场景,这个的联合学习场景不仅限于用户之前有参与过的联合学习场景,还包括一些在线上公开的可供所有用户体验的联合学习场景。当用户选定了其所需的联合学习场景之后,平台会提供一份与该联合学习场景对应的测试数据录入模板。这里向用户提供测试数据录入模板与上述的训练数据录入模板类似,都是为了使用户可以快速准备好用于模型训练使用的训练数据(或测试数据)。测试数据录入模板同样可以参照上述训练数据录入模板设置相应的数据格式、数据范围等上传要求,并设置类似的数据校验规则,以提高后续训练/测试结果的可靠性和准确性。
作为一示例,可在“推演预测”页面上设置“开始预测”的按钮,当接收到用户点击“开始预测”按钮之后,可在当前界面上展示使用用户上传的测试数据对其所选定的测试模型(最终的联合模型中的一个)的预测结果。为了更好地评价模型的性能,还可在预测阶段同时上传不带真实结果标签的测试数据,以及带真实结果标签的测试数据,这两组测试数据的区别仅在于是否带真实结果标签,其余均一致。
例如,某用户欲要对某用气负荷预测模型进行推演预测,可同时上传带真实结果标签和不带真实结果标签各12个点的用气负荷数据,当接收到用户点击“开始预测”按钮的操作之后,即可根据用户选择的预测模型对这24个用气负荷数据进行测试,可得到相应的测试结果。如果同时输入了历史的12个时刻的真实数据,除了上述12个点的负荷预测值,还可以输出对应的损失值/精准度等表针模型性能的信息,以便于用户直观地了解该测试模型的性能。
在预测结束后,平台会生成相应的预测报告,并提供下载功能,以便于用户下载查看。在预测报告中,通常会显示最近一次模型的预测结果。结合上述示例,若上传了真实数据,预测报告中会显示各组数据的对比柱状图和12个月的负荷预测值;如果没有上传真实数据,则仅显示预测值。
在一些实施例中,上述方法,还包括:
将最终的联合模型与联合学习场景对应存储至模型存储库中。
作为一示例,假设参与方A(发起方)与其他参与方B、C、D、E、F共同参与同一联合学习场景(如,用气负荷预测)的同一目标联合学习任务(如,“task_2”),训练后得到的最终模型为用气负荷预测模型01,那么可以将该用气负荷预测模型01归类到用气负荷预测(联合学习场景)的模型存储库中进行存储。
当用户需要查找某个模型时,可通过在预设的“生态模型”页面上的输入区域输入相应的筛选条件(例如,模型名称、模型类型、算法类型等),此时,平台可自动匹配出符合用户输入的筛选条件的模型,并将这些模型的相关信息展示在当前界面上,便于用户了解和进行下一步操作(如下载或发布)。
作为一示例,本公开实施例提供的技术方案,还能够编辑和管参与方的数据信息和联合学习任务。
具体的,当用户需要查看或者修改个人信息时,可通过在预设的“个人中心”页面的输入区域中输入相应的筛选条件(例如,数据名称、数据适用场景等),此时,个人中心模块可自动匹配出符合用户输入的筛选条件的个人信息,并将这些个人信息展示给用户,以使用户可以查看到自己上传的所有数据信息,包括数据名、数据量、数据的使用场景、使用次数、上传时间等。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图3是本公开实施例提供的一种模块化的联合学习系统的结构示意图。如图3所示,该模块化的联合学习系统包括:
模板提供模块301,被配置为根据参与方选定的联合学习场景,向参与方提供训练数据录入模版;
关联模块302,被配置为基于参与方反馈的训练数据,将训练数据与联合学习场景进行关联,以得到关联逻辑关系网;
任务建立模块303,被配置为利用关联逻辑关系网,按联合学习场景建立多个联合学习任务;
目标任务确定模块304,被配置为当参与方申请至少一个联合学习任务时,将参与方申请的至少一个联合学习任务确定为目标联合学习任务;
联合训练模块305,被配置为根据目标联合学习任务,启动训练与联合学习场景对应的参与方联合模型,当联合模型满足预设的训练结束条件时,向参与方反馈最终的联合模型。
本公开实施例提供的技术方案,通过将模板提供模块301配置为根据参与方选定的联合学习场景,向参与方提供训练数据录入模版;关联模块302配置为基于参与方反馈的训练数据,将训练数据与联合学习场景进行关联,以得到关联逻辑关系网;任务建立模块303配置为利用关联逻辑关系网,按联合学习场景建立多个联合学习任务;目标任务确定模块304配置为当参与方申请至少一个联合学习任务时,将参与方申请的至少一个联合学习任务确定为目标联合学习任务;联合训练模块305配置为根据目标联合学习任务,启动训练与联合学习场景对应的参与方联合模型,当联合模型满足预设的训练结束条件时,向参与方反馈最终的联合模型,能够向用户提供一站式的联合学习交互式服务,包括帮助用户快速寻求到合适的参与方、第三方等综合性服务,很好地解决了用户为寻求合适的参与方、第三方而需要花费大量时间、操作麻烦,且成本较高的问题;并且,能够实现以保护数据主权、数据隐私为出发点,结合产业物联网的特性,站在生态用户的角度,让用户拥有参与联合学习、共享成果的绝佳体验,从而能够在一定程度上推动联合学习的推广应用和发展,具有广阔的市场前景。
在一些实施例中,上述系统,还包括:
场景展示模块,被配置为在当前界面上展示N个应用场景及其相关的介绍内容;
场景确定模块,被配置为当接收到参与方对N个应用场景中的任意一个的选择操作时,将参与方选择的应用场景确定为联合学习场景,其中,N为≥1 的正整数。
在一些实施例中,上述关联模块302包括:
校验单元,被配置为接收参与方反馈的训练数据,对训练数据进行数据校验,获得校验结果;
关联单元,被配置为若校验结果为检验合格,则将训练数据与联合学习场景进行关联,以得到关联逻辑关系网。
在一些实施例中,上述目标任务确定模块304包括:
任务筛选单元,被配置为获取参与方输入的任务筛选条件,根据任务筛选条件,筛选出与联合学习场景相关的多个联合学习任务;
任务确定单元,被配置为当检测到参与方对多个联合学习任务中的至少一个任务的申请操作时,将参与方申请的至少一个联合学习任务确定为目标联合学习任务。
在一些实施例中,上述系统,还包括:
创建内容获取模块,被配置为获取参与方录入的任务创建内容;
任务创建模块,被配置为根据任务创建内容生成创建任务,并将创建任务确定为目标联合学习任务。
在一些实施例中,上述任务创建内容包括任务名称。上述任务创建模块包括:
参数配置单元,被配置为确定参与方选定的联合学习场景,在任务创建界面上的任务参数栏自动配置与联合学习场景对应的预设任务参数;
任务创建单元,被配置为当检测到参与方的创建任务确定操作时,根据任务名称和联合学习场景对应的预设任务参数,生成创建任务。
在一些实施例中,上述参与方包括第一参与方和第二参与方。上述联合训练模块305包括:
第一训练单元,被配置为使用第一参与方反馈的训练数据对与联合学习场景对应的参与方联合模型进行训练,获得第一模型参数;
第二训练单元,被配置为使用第二参与方反馈的训练数据对与联合学习场景对应的参与方联合模型进行训练,获得第二模型参数;
参数聚合单元,被配置为对第一模型参数和第二模型参数进行聚合,得到聚合参数;
参数更新单元,被配置为使用聚合参数对参与方联合模型的模型参数进行更新,得到更新联合模型;
模型反馈单元,被配置为当更新联合模型满足预设的训练结束条件时,向第一参与方和第二参与方反馈最终的联合模型。
在一些实施例中,上述系统还包括:
模型训练信息获取模块,被配置为获取与参与方共同参与同一目标联合学习场景的同一联合学习任务的所有参与方的模型训练信息;
训练过程展示模块,被配置为根据所有参与方的模型训练信息,生成联合训练过程结果,并展示给所有参与方,其中,模型训练信息包括所有参与方的模型训练日志信息。
在一些实施例中,上述系统还包括:
模版提供模块,被配置为根据参与方选定的联合学习场景,向参与方提供与联合学习场景对应的测试数据录入模版;
测试模块,被配置为接收参与方基于测试数据录入模版录入的测试数据,将测试数据输入最终的联合模型,输出测试结果。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
图4是本公开实施例提供的电子设备400的示意图。如图4所示,该实施例的电子设备400包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403 时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403 时实现上述各装置实施例中各模块/单元的功能。
示例性地,计算机程序403可以被分割成一个或多个模块/单元,一个或多个模块/单元被存储在存储器402中,并由处理器401执行,以完成本公开。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序403在电子设备400中的执行过程。
电子设备400可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备400可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备400的示例,并不构成对电子设备400 的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,电子设备还可以包括输入输出设备、网络接入设备、总线等。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列 (Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器402可以是电子设备400的内部存储单元,例如,电子设备400的硬盘或内存。存储器402也可以是电子设备400的外部存储设备,例如,电子设备400上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器 402还可以既包括电子设备400的内部存储单元也包括外部存储设备。存储器 402用于存储计算机程序以及电子设备所需的其它程序和数据。存储器402还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
在本公开所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。

Claims (10)

1.一种模块化的联合学习方法,其特征在于,包括:
根据参与方选定的联合学习场景,向所述参与方提供训练数据录入模版;
基于所述参与方反馈的训练数据,将所述训练数据与所述联合学习场景进行关联,以得到关联逻辑关系网;
利用所述关联逻辑关系网,按所述联合学习场景建立多个联合学习任务;
当所述参与方申请至少一个所述联合学习任务时,将所述参与方申请的至少一个联合学习任务确定为目标联合学习任务;
根据所述目标联合学习任务,启动训练与所述联合学习场景对应的参与方联合模型,当所述联合模型满足预设的训练结束条件时,向所述参与方反馈最终的联合模型。
2.根据权利要求1所述的方法,其特征在于,所述根据参与方选定的联合学习场景,向所述参与方提供训练数据录入模版之前,还包括:
在当前界面上展示多个应用场景,其中,所述应用场景至少包含介绍内容;
当接收到所述参与方对所述多个应用场景中的任意一个应用场景的操作指令时,将所述参与方选择的应用场景确定为联合学习场景。
3.根据权利要求1所述的方法,其特征在于,所述基于所述参与方反馈的训练数据,将所述训练数据与所述联合学习场景进行关联,以得到关联逻辑关系网,包括:
接收所述参与方反馈的训练数据,对所述训练数据进行数据校验,获得校验结果;
若所述校验结果为检验合格,则将所述训练数据与所述联合学习场景进行关联,以得到关联逻辑关系网。
4.根据权利要求1所述的方法,其特征在于,所述当所述参与方申请至少一个所述联合学习任务时,将所述参与方申请的至少一个联合学习任务确定为目标联合学习任务,包括:
获取所述参与方输入的任务筛选条件,根据所述任务筛选条件,筛选出与所述联合学习场景相关的多个联合学习任务;
当检测到所述参与方对所述多个联合学习任务中的至少一个任务的申请操作时,将所述参与方申请的至少一个联合学习任务确定为目标联合学习任务。
5.根据权利要求1所述的方法,其特征在于,所述当所述参与方申请至少一个所述联合学习任务时,将所述参与方申请的至少一个联合学习任务确定为目标联合学习任务之后,还包括:
获取所述参与方录入的任务创建内容;
根据所述任务创建内容生成创建任务,并将所述创建任务确定为目标联合学习任务。
6.根据权利要求5所述的方法,其特征在于,所述任务创建内容包括任务名称;
所述根据所述任务创建内容生成创建任务,并将所述创建任务确定为目标联合学习任务,包括:
确定所述参与方选定的联合学习场景,在所述任务创建界面上的任务参数栏自动配置与所述联合学习场景对应的预设任务参数;
当检测到所述参与方的创建任务确定操作时,根据所述任务名称和所述联合学习场景对应的预设任务参数,生成创建任务。
7.根据权利要求1所述的方法,其特征在于,所述参与方包括第一参与方和第二参与方;
所述根据所述目标联合学习任务,启动训练与所述联合学习场景对应的参与方联合模型,当所述联合模型满足预设的训练结束条件时,向所述参与方反馈最终的联合模型,包括:
使用所述第一参与方反馈的训练数据对与所述联合学习场景对应的参与方联合模型进行训练,获得第一模型参数;
使用所述第二参与方反馈的训练数据对与所述联合学习场景对应的参与方联合模型进行训练,获得第二模型参数;
对所述第一模型参数和所述第二模型参数进行聚合,得到聚合参数;
使用所述聚合参数对所述参与方联合模型的模型参数进行更新,得到更新联合模型;
当所述更新联合模型满足预设的训练结束条件时,向所述第一参与方和第二参与方反馈最终的联合模型。
8.根据权利要求1所述的方法,其特征在于,所述根据所述目标联合学习任务,启动训练与所述联合学习场景对应的参与方联合模型之后,包括:
获取与所述参与方共同参与同一目标联合学习场景的同一联合学习任务的所有参与方的模型训练信息;
根据所述所有参与方的模型训练信息,生成联合训练过程结果,并展示给所述所有参与方,其中,所述模型训练信息包括所述所有参与方的模型训练日志信息。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述参与方选定的联合学习场景,向所述参与方提供与所述联合学习场景对应的测试数据录入模版;
接收所述参与方基于所述测试数据录入模版录入的测试数据,将所述测试数据输入所述最终的联合模型,输出测试结果。
10.一种模块化的联合学习系统,其特征在于,包括:
模板提供模块,被配置为根据参与方选定的联合学习场景,向所述参与方提供训练数据录入模版;
关联模块,被配置为基于所述参与方反馈的训练数据,将所述训练数据与所述联合学习场景进行关联,以得到关联逻辑关系网;
任务建立模块,被配置为利用所述关联逻辑关系网,按所述联合学习场景建立多个联合学习任务;
目标任务确定模块,被配置为当所述参与方申请至少一个所述联合学习任务时,将所述参与方申请的至少一个联合学习任务确定为目标联合学习任务;
联合训练模块,被配置为根据所述目标联合学习任务,启动训练与所述联合学习场景对应的参与方联合模型,当所述联合模型满足预设的训练结束条件时,向所述参与方反馈最终的联合模型。
CN202111435052.8A 2021-11-29 2021-11-29 一种模块化的联合学习方法及系统 Pending CN114202018A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111435052.8A CN114202018A (zh) 2021-11-29 2021-11-29 一种模块化的联合学习方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111435052.8A CN114202018A (zh) 2021-11-29 2021-11-29 一种模块化的联合学习方法及系统

Publications (1)

Publication Number Publication Date
CN114202018A true CN114202018A (zh) 2022-03-18

Family

ID=80649519

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111435052.8A Pending CN114202018A (zh) 2021-11-29 2021-11-29 一种模块化的联合学习方法及系统

Country Status (1)

Country Link
CN (1) CN114202018A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115408197A (zh) * 2022-10-31 2022-11-29 南方电网数字电网研究院有限公司 基于流式处理及多源数据交叉校验的负荷数据校验方法
WO2024055979A1 (zh) * 2022-09-14 2024-03-21 抖音视界有限公司 模型训练方法、装置以及系统和存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024055979A1 (zh) * 2022-09-14 2024-03-21 抖音视界有限公司 模型训练方法、装置以及系统和存储介质
CN115408197A (zh) * 2022-10-31 2022-11-29 南方电网数字电网研究院有限公司 基于流式处理及多源数据交叉校验的负荷数据校验方法
CN115408197B (zh) * 2022-10-31 2023-01-20 南方电网数字电网研究院有限公司 基于流式处理及多源数据交叉校验的负荷数据校验方法

Similar Documents

Publication Publication Date Title
US20210097088A1 (en) Collective intelligence convergence system and method thereof
US10997671B2 (en) Methods, systems and computer program products for collaborative tax return preparation
CN114202018A (zh) 一种模块化的联合学习方法及系统
TWI756688B (zh) 基於信用的互動信用評估方法以及裝置及其計算設備與電腦可讀儲存媒體
US20160210710A1 (en) Method, apparatus and system for earning ownership rights of the product or products of a collaborative project
CN111815169A (zh) 业务审批参数配置方法及装置
CN114942944A (zh) 培训内容生成与数据处理方法、装置、设备及存储介质
CN112651716A (zh) 数据处理方法、设备及存储介质
Brzozowski et al. Applications of MCDM methods in the ERP system selection process in enterprises
US11995587B2 (en) Method and device for managing project by using data merging
CN111276199A (zh) 基于云服务器的人因测评方法和多互联系统以及存储介质
CN116226116A (zh) 联合学习任务查看方法、装置、电子设备及存储介质
CN110706135A (zh) 合约处理方法以及装置
CN116030317A (zh) 基于DMA-MaaS联邦学习平台的模型训练方法及系统
US20230316197A1 (en) Collaborative, multi-user platform for data integration and digital content sharing
CN114363103B (zh) 一种处理会议信息的方法、装置及计算机可读介质
CN116227616A (zh) 一种基于物联网的联合学习方法及装置
CN116402366A (zh) 基于联合学习的数据贡献评价方法及装置
Siew et al. An interactive mobile learning application using machine learning framework in a flexible manufacturing environment
CN112632391A (zh) 数据处理方法、设备及存储介质
CN110706112A (zh) 基于信用合约体系下的身份处理方法以及装置
EP4109364A1 (en) Method and device for managing project by using data pointer
EP4109365A1 (en) Method and device for managing project by using cost payment time point setting
CN111813694B (zh) 测试方法、测试装置、电子设备及可读存储介质
US20220405676A1 (en) Method and device for managing project by using data filtering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination