CN113609785B - 基于贝叶斯优化的联邦学习超参数选择系统及方法 - Google Patents

基于贝叶斯优化的联邦学习超参数选择系统及方法 Download PDF

Info

Publication number
CN113609785B
CN113609785B CN202110957008.7A CN202110957008A CN113609785B CN 113609785 B CN113609785 B CN 113609785B CN 202110957008 A CN202110957008 A CN 202110957008A CN 113609785 B CN113609785 B CN 113609785B
Authority
CN
China
Prior art keywords
super
parameter
federal
bayesian
parameter selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110957008.7A
Other languages
English (en)
Other versions
CN113609785A (zh
Inventor
顾见军
邓旭宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Digital Technology Co ltd
Original Assignee
Chengdu Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Digital Technology Co ltd filed Critical Chengdu Digital Technology Co ltd
Priority to CN202110957008.7A priority Critical patent/CN113609785B/zh
Publication of CN113609785A publication Critical patent/CN113609785A/zh
Application granted granted Critical
Publication of CN113609785B publication Critical patent/CN113609785B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及基于贝叶斯优化的联邦学习超参数选择系统及方法,该系统应用于中心节点和多个数据拥有方的参与节点,包括配置策略模块和贝叶斯超参数选择模块;其中,配置策略模块负责配置联邦模型和贝叶斯超参数选择策略;贝叶斯超参数选择模块,用于完成超参数的选择;该联邦学习超参数选择方法包括以下步骤:多个参与节点准备好本地交叉训练和交叉预测模块,分别启动服务并监听等待中心节点的调度;中心节点根据业务配置联邦模型和贝叶斯超参数选择策略;中心节点启用贝叶斯超参数选择模块,多次基于不同超参数组合,调度联邦学习的交叉训练和交叉预测过程,选择性能最优的超参数组合。

Description

基于贝叶斯优化的联邦学习超参数选择系统及方法
技术领域
本发明涉及机器学习技术领域,尤其涉及基于贝叶斯优化的联邦学习超参数选择系统及方法。
背景技术
联邦学习是一种新兴的基于机器学习的技术,很好的解决了多个数据拥有方既要保证数据隐私安全,又要联合建模的问题。在训练模型的过程中,不同的超参数对应的模型性能不同,对超参数进行调优可以一定程度上改进模型的性能。但是,模型的超参数可能有很多,而每个超参数的可选范围又很广,以至于超参数组合的数量就呈指数增长。现有技术在超参数搜索过程中,需要提前设定好各个参数的最优值可能范围,使用网格穷举搜索方法选取最优的超参数组合。由于要遍历所有的超参数组合,因而会造成超参数搜索效率较低。
发明内容
本申请为了解决上述技术问题提供基于贝叶斯优化的联邦学习超参数选择系统及方法。
本申请通过下述技术方案实现:
基于贝叶斯优化的联邦学习超参数选择系统,包括:
配置策略模块,负责配置联邦模型和贝叶斯超参数选择策略,
贝叶斯超参数选择模块,用于联合中心节点和各数据提供方的参与节点共同完成超参数的选择。
优选地,所述配置策略模块负责配置贝叶斯优化目标函数、超参数搜索空间、贝叶斯优化算法、超参数迭代次数、联邦模型参数、以及多个数据拥有方的参与节点的地址。
进一步的,所述贝叶斯超参数选择模块包括部署在中心节点的参数选择模块、联邦训练模块以及联邦预测模块;
所述参数选择模块,负责贝叶斯优化的参数估计,根据已有的参数样本估计并更新参数的高斯分布,选择下一个超参数组合;
所述联邦交叉训练模块,负责基于超参数组合,利用中心节点和各参与节点进行联邦交叉验证训练,得到联邦交叉验证模型;
所述联邦交叉预测模块,负责得到该超参数组合的联邦模型的性能指标。
进一步的,所述贝叶斯超参数选择模块还包括部署在各参与节点的本地交叉训练模块和本地交叉预测模块;
所述本地交叉训练模块,负责基于接收到的模型列表,对本地样本做交叉验证样本分割,使用不同交叉验证训练集做增量训练,得到本地模型列表;
本地交叉预测模块,负责基于本地交叉验证测试集和联邦模型列表进行预测,得到本地全部样本的预测结果。
基于贝叶斯优化的联邦学习超参数选择方法,该方法使用了所述的联邦学习超参数选择系统,具体包括以下步骤:
多个参与节点准备好本地交叉训练和交叉预测模块,分别启动服务并监听等待中心节点的调度;
中心节点根据业务配置联邦模型和贝叶斯超参数选择策略;
中心节点启用贝叶斯超参数选择模块,多次基于不同超参数组合,调度联邦学习的交叉训练和交叉预测过程,选择性能最优的超参数组合。
进一步的,联邦交叉训练过程中,联邦训练会多次迭代模型训练过程,任意一次迭代包括以下步骤:
中心节点将模型列表下发至参与节点;
参与节点基于本地训练数据同时训练多个本地模型,并将其发送至中心节点;
中心节点接收后更新联邦模型列表;
中心节点继续与下一个参与节点进行交互,直至各参与节点都完成一次训练。
其中,联邦交叉预测包括以下步骤:
中心节点将联邦模型列表下发至所有的参与节点;
各参与节点基于本地交叉验证测试集进行预测,并将其发送至中心节点;
中心节点接收并聚合所有参与节点的预测结果,计算本轮超参数组合对应联邦模型的性能评估指标。
进一步的,贝叶斯超参数选择模块根据配置策略模块预设的迭代次数,迭代超参数训练过程,每次超参数训练过程均包括参数选择、联邦训练以及联邦预测;
达到预设的迭代次数后,基于多次迭代训练多个超参数组合对应的联邦模型性能值,选择性能最优的超参数组合。
与现有技术相比,本申请具有以下有益效果:
本申请会充分利用前面迭代的先验知识来得到下一次迭代的超参数组合,避免了多余无谓的某些超参数组合的计算,从而提高超参数效率。本申请可解决联邦学习建模时的超参数搜索效率较低的问题,适用于联邦学习的超参数调优场景。
附图说明
此处所说明的附图用来提供对本申请实施方式的进一步理解,构成本申请的一部分,并不构成对本发明实施方式的限定。
图1为实施例中的基于贝叶斯优化的联邦学习超参数选择系统架构图;
图2为实施例中的基于贝叶斯优化的联邦学习超参数选择系统的中心节点的贝叶斯参数选择流程图;
图3为实施例中的基于贝叶斯优化的联邦学习超参数选择方法步骤图;
图4为实施例中的基于贝叶斯优化的联邦学习超参数选择方法的联邦交叉训练的流程图;
图5为实施例中的基于贝叶斯优化的联邦学习超参数选择方法的联邦交叉预测的流程图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述。显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。
因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
实施例一
本实施例公开的基于贝叶斯优化的联邦学习超参数选择系统,应用于中心节点和各数据提供方的参与节点。如图1所示,该系统具体包括配置策略模块和贝叶斯超参数选择模块。
其中,配置策略模块负责配置联邦模型和贝叶斯超参数选择策略,包括:贝叶斯优化目标函数、超参数搜索空间、贝叶斯优化算法、超参数迭代次数、联邦模型参数、以及多个数据拥有方的参与节点的地址。
贝叶斯超参数选择模块,包括部署在中心节点的参数选择模块、联邦训练模块和联邦预测模块。其中,参数选择模块,负责贝叶斯优化的参数估计,根据已有的参数样本估计并更新参数的高斯分布,选择下一个超参数组合;
联邦交叉训练模块,负责基于超参数组合,利用中心节点和各参与节点进行联邦交叉验证训练,得到联邦交叉验证模型;
联邦交叉预测模块,负责得到该超参数组合的联邦模型的性能指标。
值得一提的是,贝叶斯超参数选择模块还包括部署在各参与节点的本地交叉训练模块和本地交叉预测模块。
其中,本地交叉训练模块是基于接收到的模型列表,对本地样本做交叉验证样本分割,使用不同交叉验证训练集做增量训练,得到本地模型列表;
本地交叉预测模块是基于本地交叉验证测试集和联邦模型列表进行预测,得到本地全部样本的预测结果。
如图2所示,本实施例中的基于贝叶斯优化的联邦学习超参数选择系统的中心节点的贝叶斯参数选择流程,贝叶斯超参数选择模块,会多次迭代超参数训练过程,一次完整的超参数训练过程包括参数选择、联邦训练以及联邦预测。达到配置策略模块预设的迭代次数后,基于多次迭代训练多个超参数组合对应的联邦模型性能值,选择性能最优的超参数组合。
贝叶斯优化假设超参数和模型的性能服从一个高斯函数关系,假设超参数组合为x,模型性能为y,目标即找到能逼近y的f(x)的函数,也就是找出预测超参数组合的性能的函数,从而就能基于此函数找到使模型性能y最小的超参数组合x。贝叶斯优化的过程,如下:
1,初始化数据集D= ,...
2,循环迭代T次;
3,利用数据集计算高斯分布;
4,选择超参数组合x;
5,计算模型性能y,更新数据集D。
实施例二
基于上述基于贝叶斯优化的联邦学习超参数选择系统,本实施例提供一种基于贝叶斯优化的联邦学习超参数选择方法。如图3所示,该方法包括以下步骤:
多个参与节点准备好本地交叉训练和交叉预测模块,分别启动服务并监听等待中心节点的调度;
中心节点根据业务配置联邦模型和贝叶斯超参数选择策略;
中心节点启用贝叶斯超参数选择模块,多次基于不同超参数组合,调度联邦学习的交叉训练和交叉预测过程,选择性能最优的超参数组合。
其中,联邦交叉训练流程如图4所示,联邦交叉训练过程中,联邦训练会多次迭代模型训练过程,任意一次迭代过程包括:中心节点将模型列表下发至参与节点;参与节点基于本地训练数据同时训练多个本地模型,并将其发送至中心节点;中心节点接收后更新联邦模型列表;中心节点继续与下一个参与节点进行交互,直至各参与节点都完成一次训练。
其中,联邦交叉预测的流程如图5所示,联邦交叉预测过程包括:中心节点将联邦模型列表下发至所有的参与节点;各参与节点基于本地交叉验证测试集进行预测,并将其发送至中心节点;中心节点接收并聚合所有参与节点的预测结果,计算本轮超参数组合对应联邦模型的性能评估指标。
本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。
而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上的具体实施方式,对本申请的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.基于贝叶斯优化的联邦学习超参数选择系统,其特征在于:包括:
配置策略模块,负责配置联邦模型和贝叶斯超参数选择策略;
贝叶斯超参数选择模块,用于联合中心节点和各数据提供方的参与节点共同完成超参数的选择;
所述配置策略模块负责配置贝叶斯优化目标函数、超参数搜索空间、贝叶斯优化算法、超参数迭代次数、联邦模型参数、以及多个数据拥有方的参与节点的地址;
所述贝叶斯超参数选择模块包括部署在中心节点的参数选择模块、联邦交叉训练模块以及联邦交叉预测模块;
所述参数选择模块,负责贝叶斯优化的参数估计,根据已有的参数样本估计并更新参数的高斯分布,选择下一个超参数组合;
所述联邦交叉训练模块,负责基于超参数组合,利用中心节点和各参与节点进行联邦交叉验证训练,得到联邦交叉验证模型;
所述联邦交叉预测模块,负责得到该超参数组合的联邦模型的性能指标。
2.根据权利要求1所述的基于贝叶斯优化的联邦学习超参数选择系统,其特征在于:所述贝叶斯超参数选择模块还包括部署在各参与节点的本地交叉训练模块和本地交叉预测模块;
所述本地交叉训练模块,负责基于接收到的模型列表,对本地样本做交叉验证样本分割,使用不同交叉验证训练集做增量训练,得到本地模型列表;
本地交叉预测模块,负责基于本地交叉验证测试集和联邦模型列表进行预测,得到本地全部样本的预测结果。
3.基于贝叶斯优化的联邦学习超参数选择方法,其特征在于:所述方法使用了如权利要求1或2所述的联邦学习超参数选择系统,具体包括以下步骤:
多个参与节点准备好本地交叉训练和交叉预测模块,分别启动服务并监听等待中心节点的调度;
中心节点根据业务配置联邦模型和贝叶斯超参数选择策略;
中心节点启用贝叶斯超参数选择模块,多次基于不同超参数组合,调度联邦学习的交叉训练和交叉预测过程,选择性能最优的超参数组合。
4.根据权利要求3所述的基于贝叶斯优化的联邦学习超参数选择方法,其特征在于:联邦交叉训练过程中,联邦训练会多次迭代模型训练过程,任意一次迭代包括以下步骤:
中心节点将模型列表下发至参与节点;
参与节点基于本地训练数据同时训练多个本地模型,并将其发送至中心节点;
中心节点接收后更新联邦模型列表;
中心节点继续与下一个参与节点进行交互,直至各参与节点都完成一次训练。
5.根据权利要求3所述的基于贝叶斯优化的联邦学习超参数选择方法,其特征在于:联邦交叉预测包括以下步骤:
中心节点将联邦模型列表下发至所有的参与节点;
各参与节点基于本地交叉验证测试集进行预测,并将其发送至中心节点;
中心节点接收并聚合所有参与节点的预测结果,计算本轮超参数组合对应联邦模型的性能评估指标。
6.根据权利要求3所述的基于贝叶斯优化的联邦学习超参数选择方法,其特征在于:贝叶斯超参数选择模块根据配置策略模块预设的迭代次数,迭代超参数训练过程,每次超参数训练过程均包括参数选择、联邦训练以及联邦预测;
达到预设的迭代次数后,基于多次迭代训练多个超参数组合对应的联邦模型性能值,选择性能最优的超参数组合。
CN202110957008.7A 2021-08-19 2021-08-19 基于贝叶斯优化的联邦学习超参数选择系统及方法 Active CN113609785B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110957008.7A CN113609785B (zh) 2021-08-19 2021-08-19 基于贝叶斯优化的联邦学习超参数选择系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110957008.7A CN113609785B (zh) 2021-08-19 2021-08-19 基于贝叶斯优化的联邦学习超参数选择系统及方法

Publications (2)

Publication Number Publication Date
CN113609785A CN113609785A (zh) 2021-11-05
CN113609785B true CN113609785B (zh) 2023-05-09

Family

ID=78341368

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110957008.7A Active CN113609785B (zh) 2021-08-19 2021-08-19 基于贝叶斯优化的联邦学习超参数选择系统及方法

Country Status (1)

Country Link
CN (1) CN113609785B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116151495A (zh) * 2023-04-24 2023-05-23 北京智芯微电子科技有限公司 基于联邦学习的用电预测方法及系统、计算机设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003034270A1 (en) * 2001-10-17 2003-04-24 Commonwealth Scientific And Industrial Research Organisation Method and apparatus for identifying diagnostic components of a system
WO2016061283A1 (en) * 2014-10-14 2016-04-21 Skytree, Inc. Configurable machine learning method selection and parameter optimization system and method
WO2020192896A1 (en) * 2019-03-26 2020-10-01 Huawei Technologies Co., Ltd. Apparatus and method for hyperparameter optimization of a machine learning model in a federated learning system
CN111898764A (zh) * 2020-06-23 2020-11-06 华为技术有限公司 联邦学习的方法、装置和芯片
CN111915023A (zh) * 2020-08-28 2020-11-10 支付宝(杭州)信息技术有限公司 一种基于联邦学习的超参数确定方法及装置
CN112232519A (zh) * 2020-10-15 2021-01-15 成都数融科技有限公司 一种基于联邦学习的联合建模方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210110264A1 (en) * 2020-12-21 2021-04-15 Intel Corporation Methods and apparatus to facilitate efficient knowledge sharing among neural networks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003034270A1 (en) * 2001-10-17 2003-04-24 Commonwealth Scientific And Industrial Research Organisation Method and apparatus for identifying diagnostic components of a system
WO2016061283A1 (en) * 2014-10-14 2016-04-21 Skytree, Inc. Configurable machine learning method selection and parameter optimization system and method
WO2020192896A1 (en) * 2019-03-26 2020-10-01 Huawei Technologies Co., Ltd. Apparatus and method for hyperparameter optimization of a machine learning model in a federated learning system
CN111898764A (zh) * 2020-06-23 2020-11-06 华为技术有限公司 联邦学习的方法、装置和芯片
CN111915023A (zh) * 2020-08-28 2020-11-10 支付宝(杭州)信息技术有限公司 一种基于联邦学习的超参数确定方法及装置
CN112232519A (zh) * 2020-10-15 2021-01-15 成都数融科技有限公司 一种基于联邦学习的联合建模方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Probabilistic Solar Irradiation Forecasting Based on Variational Bayesian Inference With Secure Federated Learning;Xiaoning Zhang .etc;《IEEE Transactions on Industrial Informatics 》;第17卷(第11期);7849 - 7859 *
分布式流数据分析与实时机器学习理论与应用研究;成英超;《中国优秀博士学位论文全文数据库(电子期刊)》;I138-8 *
基于监督学习的单幅图像深度估计综述;毕天腾等;《计算机辅助设计与图形学学报》;第30卷(第8期);1383-1393 *
机器学习隐私保护研究综述;谭作文等;《软件学报》;第31卷(第7期);2127-2156 *

Also Published As

Publication number Publication date
CN113609785A (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
Baker et al. Accelerating neural architecture search using performance prediction
Hoogeboom et al. Autoregressive diffusion models
CN111406264A (zh) 神经架构搜索
CN108091166B (zh) 可用停车位数目变化的预测方法、装置、设备及存储介质
CN105991397B (zh) 信息传播方法和装置
CN110413828B (zh) 基于优化遗传算法的遥感海量影像自动筛选方法
CN103106279A (zh) 一种同时基于节点属性以及结构关系相似度的聚类方法
CN113609785B (zh) 基于贝叶斯优化的联邦学习超参数选择系统及方法
CN114117878B (zh) 一种基于改进粒子群寻优的目标运动轨迹分段压缩方法
Mohammadi et al. Consensus-based distributed dynamic sensor selection in decentralised sensor networks using the posterior Cramér–Rao lower bound
CN107783998A (zh) 一种数据处理的方法以及装置
CN109151332A (zh) 基于适应度函数的相机编码曝光最优码字序列搜索方法
CN114861531B (zh) 针对用户重复购买预测的模型参数优化方法及设备
Choi et al. On the difficulty of DNN hyperparameter optimization using learning curve prediction
CN115080450B (zh) 自动驾驶测试数据生成方法及系统、电子设备、存储介质
CN116524316A (zh) 强化学习框架下场景图骨架构建方法
CN113869033B (zh) 融入迭代式句对关系预测的图神经网络句子排序方法
CN115345303A (zh) 卷积神经网络权重调优方法、装置、存储介质和电子设备
CN113328466B (zh) 一种电动汽车充电场景生成方法
KR20140006491A (ko) 확률 그래프의 효과적인 그래프 클러스터링 장치 및 방법
Agrawal et al. Optimal δ-correct best-arm selection for general distributions
CN116739077B (zh) 一种基于课程学习的多智能体深度强化学习方法和装置
CN111753950A (zh) 一种前向耗时的确定方法、装置及设备
US20240013061A1 (en) Architecture search method and apparatus for large-scale graph, and device and storage medium
CN110796234B (zh) 一种用于预测计算机状态的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant