CN108446801A - 一种多人信息非对称博弈游戏决策生成系统 - Google Patents
一种多人信息非对称博弈游戏决策生成系统 Download PDFInfo
- Publication number
- CN108446801A CN108446801A CN201810238739.4A CN201810238739A CN108446801A CN 108446801 A CN108446801 A CN 108446801A CN 201810238739 A CN201810238739 A CN 201810238739A CN 108446801 A CN108446801 A CN 108446801A
- Authority
- CN
- China
- Prior art keywords
- module
- network
- training
- network training
- people
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0637—Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- General Physics & Mathematics (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- General Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明属于基于神经网络模型的计算系统技术领域,特别涉及一种多人信息非对称博弈游戏决策生成系统,包括业务特征分析模块、仿真模块、网络训练模块及策略预期判断模块,所述网络训练模块包括特征映射网络输入模块;所述业务特征分析模块与仿真模块信号相连,所述仿真模块与网络训练模块信号相连,所述网络训练模块与所述策略预期判断模块信号相连。与现有技术相比,本发明通过深度学习和增强学习技术实现对行动策略的自归纳,可解决以下问题:A.计算策略规则设计中人工干预要求高;B.问题状态空间大的情况下对计算量要求非常高;C.策略制定下的行动模式简单,容易被发现规律;D.本发明是目前代价最小的求解纳什均衡问题的方法。
Description
技术领域
本发明属于基于神经网络模型的计算系统技术领域,特别涉及一种多人信息非对称博弈游戏决策生成系统。
背景技术
多人信息非对称博弈游戏的特点是博弈游戏中的每个参与者拥有的信息并不相同,且每个参与者可以拥有不同的策略、目标和奖励。现有技术中多人信息非对称博弈游戏的决策生成方案主要包括通过策略树遍历求解最优策略、依据胜率与赔率下回报情况进行概率决策与通过计算反事实后悔最小求解博弈策略。
然而,策略树遍历求解最优策略的方案需对所有可能的策略进行彻底或者有限的遍历,所需探索的状态空间可能极大,现有计算能力无法满足需求;概率决策求解方案是依据仿真结果或者历史经验,制作概率行动表,预期行为倾向于大概率发生事件,但该方案需要业务领域高级知识专家支持,主观性较大,无法对问题状态空间进行全面刻画,且概率表行动模式较为单一,容易被发现规律;计算反事实后悔最小的求解方案是对博弈论中的纳什均衡进行近似求解,其计算过程仍需进行对策略树的有限探索,计算量大,难以实时完成。
发明内容
为了克服现有技术的不足,本发明提供一种多人信息非对称博弈游戏决策生成系统,以通过深度学习实现信息非对称游戏策略的自动归纳,通过增强学习实现信息非对称游戏策略的自动演化,并通过人工神经网络技术大幅度减少游戏策略设计的人工干预。
为解决现有技术存在的问题,现特别提出一种多人信息非对称博弈游戏决策生成系统。
一种多人信息非对称博弈游戏决策生成系统,包括业务特征分析模块、仿真模块、网络训练模块及策略预期判断模块,所述网络训练模块包括特征映射网络输入模块;所述业务特征分析模块与仿真模块信号相连,所述仿真模块与网络训练模块信号相连,所述网络训练模块与所述策略预期判断模块信号相连。
所述策略预期判断模块与所述仿真模块信号相连。
该决策生成系统的决策生成步骤如下:
S1.业务特征分析模块根据游戏内容界定出业务内容,并根据业务内容定义待训练的输入数据结构和输出数据结构;
输入和输出的数据结构根据游戏内容界定,本领域技术人员根据游戏内容知晓其定义方法。
S2.仿真模块根据业务特征分析模块界定出的业务内容产生限制条件下的受限训练数据;
具体而言,受限训练数据是指用于训练网络的数据。
S3.网络训练模块中的特征映射网络输入模块对受限训练数据的数据结构进行变形和/或转换,网络训练模块继而使用变形和/或转换后的训练数据进行人工神经网络训练,直至达到该限制条件下的训练预期;
所述网络训练模块的主要作用是训练网络,特征映射网络输入模块用于在正式训练前涉及对训练数据的变形和/或转换。
S3中的变形指数据结构变形,如通过主成分分析(PCA)降维;S3中的转换指特征映射,如通过拉普拉斯变换、傅里叶变换、小波变换等。
S4.策略预期判断模块对策略效果进行评估,若策略效果无法达到预期,仿真模块改变限制条件产生新的受限训练数据,网络训练模块对新的受限训练数据进行人工神经网络训练并达到训练预期,直至策略效果达到预期。
例如:一个游戏的多种获胜方式可被限定为多种限制条件(如限制麻将获胜方式可以是清一色、平胡等),达到某一限制条件(如清一色)下的训练预期后,改变新的限制条件(如改为平胡),重新进行网络训练,当所有限制条件(如麻将的所有胡牌方式)下的网络都达到了训练预期,即所有条件下的损失函数趋近0,系统通过图灵测试判断策略效果是否达到预期。
进一步地,上述受限训练数据为仿真模块对业务内容进行受限蒙特卡洛仿真而产生。
游戏有不同的规则,这些规则造成了游戏的限制条件,设定限制条件则为不同限制条件下的胜利规则。
由于博弈游戏往往具有巨大的统计空间,无法采用常规蒙特卡洛仿真进行有效的探索空间统计采样。本发明采用的受限蒙特卡洛仿真是在蒙特卡洛仿真的基础上,设定限制条件,而压缩探索空间,逐步逼近。
进一步地,特征映射网络输入模块根据后端网络数据输入结构要求,对数据结构进行变形和/或转换,以适合需求。
进一步地,网络训练模块通过调整网络权重实现人工神经网络训练,网络训练模块采用标准BP(误差逆向传播)神经网络方法调整网络权重。BP神经网络方法是对多层神经网络进行训练的常见方法,通过调整网络权重,使误差沿梯度方向下降。经过对人工神经网络的反复训练与调整,使人工神经网络实际输出与预期输出趋于无限接近。
可选择地,网络训练模块通过调整网络拓扑结构实现人工神经网络训练。
进一步地,网络训练模块通过计算损失函数判断人工神经网络训练是否达到训练预期。具体地,系统通过计算损失函数衡量调整后人工神经网络的实际输出与预期输出之间的差异。
进一步地,策略预期判断模块通过图灵测试判断策略效果是否达到预期。
与现有技术相比,本发明通过深度学习和增强学习技术实现对行动策略的自归纳,可解决以下问题:A.计算策略规则设计中人工干预要求高;B.问题状态空间大的情况下对计算量要求非常高;C.策略制定下的行动模式简单,容易被发现规律;D. 本发明是目前代价最小的求解纳什均衡问题的方法。
附图说明
图1为本发明实施例提供的一种多人信息非对称博弈游戏决策生成系统的系统结构示意图。
图2为本发明实施例提供的一种多人信息非对称博弈游戏决策生成系统的决策生成流程示意图。
附图中:1、业务特征分析模块,2、仿真模块,3、网络训练模块,4、特征映射网络输入模块、5、策略预期判断模块,100、多人信息非对称博弈游戏决策生成系统。
图2中步骤101对应步骤S1,为业务特征分析模块的工作内容;步骤102对应步骤S2,为仿真模块的工作内容;步骤103、步骤104和步骤105对应步骤S3,为含有特征映射网络输入模块的网络训练模块的工作内容;步骤106为策略预期判断模块的工作内容。
具体实施方式
实施例1
一种多人信息非对称博弈游戏决策生成系统,包括业务特征分析模块1、仿真模块2、网络训练模块3及策略预期判断模块5,所述网络训练模块3包括特征映射网络输入模块4;所述业务特征分析模块1与仿真模块2信号相连,所述仿真模块2与网络训练模块3信号相连,所述网络训练模块3与所述策略预期判断模块5信号相连。所述策略预期判断模块5与所述仿真模块2信号相连。
实施例2
在实施例1的基础上,多人信息非对称博弈游戏决策生成系统的决策生成步骤如下:
S1.业务特征分析模块1根据游戏内容界定出业务内容,并根据业务内容定义待训练的输入数据结构和输出数据结构;
输入和输出的数据结构根据游戏内容界定,本领域技术人员根据游戏内容知晓其定义方法。
S2.仿真模块2根据业务特征分析模块1界定出的业务内容产生限制条件下的受限训练数据;
具体而言,受限训练数据是指用于训练网络的数据。
S3.网络训练模块3中的特征映射网络输入模块4对受限训练数据的数据结构进行变形和/或转换,网络训练模块3继而使用变形和/或转换后的训练数据进行人工神经网络训练,直至达到该限制条件下的训练预期;
所述网络训练模块3的主要作用是训练网络,特征映射网络输入模块4用于在正式训练前涉及对训练数据的变形和/或转换。
S3中的变形指数据结构变形,如通过主成分分析PCA降维;S3中的转换指特征映射,如通过拉普拉斯变换、傅里叶变换、小波变换等。
S4.策略预期判断模块5对策略效果进行评估,若策略效果无法达到预期,仿真模块2改变限制条件产生新的受限训练数据,网络训练模块3对新的受限训练数据进行人工神经网络训练并达到训练预期,直至策略效果达到预期。
例如:一个游戏的多种获胜方式可被限定为多种限制条件(如限制麻将获胜方式可以是清一色、平胡等),达到某一限制条件(如清一色)下的训练预期后,改变新的限制条件(如改为平胡),重新进行网络训练,当所有限制条件(如麻将的所有胡牌方式)下的网络都达到了训练预期,即所有条件下的损失函数趋近0,系统通过图灵测试判断策略效果是否达到预期。
进一步地,上述受限训练数据为仿真模块2对业务内容进行受限蒙特卡洛仿真而产生。
游戏有不同的规则,这些规则造成了游戏的限制条件,设定限制条件则为不同限制条件下的胜利规则。
由于博弈游戏往往具有巨大的统计空间,无法采用常规蒙特卡洛仿真进行有效的探索空间统计采样。本发明采用的受限蒙特卡洛仿真是在蒙特卡洛仿真的基础上,设定限制条件,而压缩探索空间,逐步逼近。
进一步地,特征映射网络输入模块4根据后端网络数据输入结构要求,对数据结构进行变形和/或转换,以适合需求。
进一步地,网络训练模块3通过调整网络权重实现人工神经网络训练,网络训练模块3采用标准BP(误差逆向传播)神经网络方法调整网络权重。BP神经网络方法是对多层神经网络进行训练的常见方法,通过调整网络权重,使误差沿梯度方向下降。经过对人工神经网络的反复训练与调整,使人工神经网络实际输出与预期输出趋于无限接近。
可选择地,网络训练模块3通过调整网络拓扑结构实现人工神经网络训练。
进一步地,网络训练模块3通过计算损失函数判断人工神经网络训练是否达到训练预期。具体地,系统通过计算损失函数衡量调整后人工神经网络的实际输出与预期输出之间的差异。
进一步地,策略预期判断模块5通过图灵测试判断策略效果是否达到预期。
与现有技术相比,本发明通过深度学习和增强学习技术实现对行动策略的自归纳,可解决以下问题:A.计算策略规则设计中人工干预要求高;B.问题状态空间大的情况下对计算量要求非常高;C.策略制定下的行动模式简单,容易被发现规律;D. 本发明是目前代价最小的求解纳什均衡问题的方法。
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本实施例中,多人信息非对称博弈游戏决策生成系统100的系统结构参照说明书附图1,系统包括业务特征分析模块1,仿真模块2,网络训练模块3及策略预期判断模块5,其中,网络训练模块3包括特征映射网络输入模块4。
多人信息非对称博弈游戏决策生成系统100的决策生成流程参照说明书附图2,在步骤101中,业务特征分析模块1根据游戏内容界定出业务内容,并根据业务内容定义待训练的输入和输出的数据结构。在步骤102中,仿真模块2根据业务特征分析模块1界定出的业务内容产生限制条件下的受限训练数据。在步骤103中,网络训练模块3的特征映射网络输入模块4对受限训练数据的数据结构进行变形和/或转换。在步骤104中,网络训练模块3使用变形和/或转换后的训练数据进行人工神经网络训练。在步骤105中,判断当前人工神经网络是否满足该限制条件下的训练预期,若当前人工神经网络尚未达到训练预期,则重复步骤104-105,直至训练目标达成。在步骤106中,策略预期判断模块5对策略效果进行评估,若策略效果无法达到预期,则重复步骤102-106,并在每次重复过程中的步骤102时,利用仿真模块2改变限制条件产生新的受限训练数据,网络训练模块103对新的受限训练数据进行人工神经网络训练并达到训练预期,直至策略预期判断模块5判断策略效果达到预期。
所述受限训练数据为仿真模块2对业务内容进行受限蒙特卡洛仿真而产生。
所述特征映射网络输入模块4根据后端网络数据输入结构要求,对数据结构进行变形和/或转换,以适合需求。
所述网络训练模块3通过调整网络权重实现人工神经网络训练。网络训练模块3可采用标准BP神经网络方法调整网络权重。可选择地,网络训练模块3可通过调整网络拓扑结构实现人工神经网络训练。
所述网络训练模块3通过计算损失函数判断人工神经网络训练是否达到训练预期。
所述策略预期判断模块5通过图灵测试判断策略效果是否达到预期。
以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求所界定的保护范围为准。
Claims (9)
1.一种多人信息非对称博弈游戏决策生成系统,其特征在于:包括业务特征分析模块(1)、仿真模块(2)、网络训练模块(3)及策略预期判断模块(5),所述网络训练模块(3)包括特征映射网络输入模块(4);所述业务特征分析模块(1)与仿真模块(2)信号相连,所述仿真模块(2)与网络训练模块(3)信号相连,所述网络训练模块(3)与所述策略预期判断模块(5)信号相连。
2.根据权利要求1所述的一种多人信息非对称博弈游戏决策生成系统,其特征在于:所述策略预期判断模块(5)与所述仿真模块(2)信号相连。
3.根据权利要求2所述的一种多人信息非对称博弈游戏决策生成系统,其特征在于:该决策生成系统的决策生成步骤如下:
S1.业务特征分析模块(1)根据游戏内容界定出业务内容,并根据业务内容定义待训练的输入数据结构和输出数据结构;
S2.仿真模块(2)根据业务特征分析模块(1)界定出的业务内容产生限制条件下的受限训练数据;
S3.网络训练模块(3)中的特征映射网络输入模块(4)对受限训练数据的数据结构进行变形和/或转换,网络训练模块(3)继而使用变形和/或转换后的训练数据进行人工神经网络训练,直至达到该限制条件下的训练预期;
S4.策略预期判断模块(5)对策略效果进行评估,若策略效果无法达到预期,仿真模块(2)改变限制条件产生新的受限训练数据,网络训练模块(3)对新的受限训练数据进行人工神经网络训练并达到训练预期,直至策略效果达到预期。
4.根据权利要求3所述的一种多人信息非对称博弈游戏决策生成系统,其特征在于:所述受限训练数据为仿真模块(2)对业务内容进行受限蒙特卡洛仿真而产生。
5.根据权利要求3所述的一种多人信息非对称博弈游戏决策生成系统,其特征在于:特征映射网络输入模块(4)根据后端网络数据输入结构要求,对数据结构进行变形和/或转换,以适合需求。
6.根据权利要求3所述的一种多人信息非对称博弈游戏决策生成系统,其特征在于:网络训练模块(3)通过调整网络权重实现人工神经网络训练,网络训练模块(3)采用标准BP神经网络方法调整网络权重;经过对人工神经网络的反复训练与调整,使人工神经网络实际输出与预期输出趋于无限接近。
7.根据权利要求3所述的一种多人信息非对称博弈游戏决策生成系统,其特征在于:网络训练模块(3)通过调整网络拓扑结构实现人工神经网络训练。
8.根据权利要求3所述的一种多人信息非对称博弈游戏决策生成系统,其特征在于:网络训练模块(3)通过计算损失函数判断人工神经网络训练是否达到训练预期。
9.根据权利要求3所述的一种多人信息非对称博弈游戏决策生成系统,其特征在于:策略预期判断模块(5)通过图灵测试判断策略效果是否达到预期。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810238739.4A CN108446801A (zh) | 2018-03-22 | 2018-03-22 | 一种多人信息非对称博弈游戏决策生成系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810238739.4A CN108446801A (zh) | 2018-03-22 | 2018-03-22 | 一种多人信息非对称博弈游戏决策生成系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108446801A true CN108446801A (zh) | 2018-08-24 |
Family
ID=63196554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810238739.4A Withdrawn CN108446801A (zh) | 2018-03-22 | 2018-03-22 | 一种多人信息非对称博弈游戏决策生成系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108446801A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047053A (zh) * | 2019-11-20 | 2020-04-21 | 清华大学 | 面向未知策略对手的蒙特卡洛搜索博弈决策方法及系统 |
CN112292699A (zh) * | 2019-05-15 | 2021-01-29 | 创新先进技术有限公司 | 确定执行设备的动作选择方针 |
CN112292698A (zh) * | 2019-05-15 | 2021-01-29 | 创新先进技术有限公司 | 确定执行设备的动作选择方针 |
CN113867178A (zh) * | 2021-10-26 | 2021-12-31 | 哈尔滨工业大学 | 面向多机器人对抗的虚实迁移训练系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110071969A1 (en) * | 2008-05-23 | 2011-03-24 | Faiyaz Doctor | Neuro type-2 fuzzy based method for decision making |
CN105426969A (zh) * | 2015-08-11 | 2016-03-23 | 浙江大学 | 一种非完备信息的博弈策略生成方法 |
CN105787500A (zh) * | 2014-12-26 | 2016-07-20 | 日本电气株式会社 | 基于人工神经网络的特征选择方法和装置 |
CN107038477A (zh) * | 2016-08-10 | 2017-08-11 | 哈尔滨工业大学深圳研究生院 | 一种非完备信息下的神经网络与q学习结合的估值方法 |
-
2018
- 2018-03-22 CN CN201810238739.4A patent/CN108446801A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110071969A1 (en) * | 2008-05-23 | 2011-03-24 | Faiyaz Doctor | Neuro type-2 fuzzy based method for decision making |
CN105787500A (zh) * | 2014-12-26 | 2016-07-20 | 日本电气株式会社 | 基于人工神经网络的特征选择方法和装置 |
CN105426969A (zh) * | 2015-08-11 | 2016-03-23 | 浙江大学 | 一种非完备信息的博弈策略生成方法 |
CN107038477A (zh) * | 2016-08-10 | 2017-08-11 | 哈尔滨工业大学深圳研究生院 | 一种非完备信息下的神经网络与q学习结合的估值方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112292699A (zh) * | 2019-05-15 | 2021-01-29 | 创新先进技术有限公司 | 确定执行设备的动作选择方针 |
CN112292698A (zh) * | 2019-05-15 | 2021-01-29 | 创新先进技术有限公司 | 确定执行设备的动作选择方针 |
CN111047053A (zh) * | 2019-11-20 | 2020-04-21 | 清华大学 | 面向未知策略对手的蒙特卡洛搜索博弈决策方法及系统 |
CN113867178A (zh) * | 2021-10-26 | 2021-12-31 | 哈尔滨工业大学 | 面向多机器人对抗的虚实迁移训练系统 |
CN113867178B (zh) * | 2021-10-26 | 2022-05-31 | 哈尔滨工业大学 | 面向多机器人对抗的虚实迁移训练系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108446801A (zh) | 一种多人信息非对称博弈游戏决策生成系统 | |
CN113052334B (zh) | 一种联邦学习实现方法、系统、终端设备及可读存储介质 | |
CN112465626B (zh) | 基于客户端分类聚合的联合风险评估方法及相关设备 | |
WO2018068421A1 (zh) | 一种神经网络的优化方法及装置 | |
CN112465120A (zh) | 一种基于进化方法的快速注意力神经网络架构搜索方法 | |
CN108322541A (zh) | 一种自适应的分布式体系架构 | |
CN116306910B (zh) | 一种基于联邦节点贡献的公平性隐私计算方法 | |
CN111639969B (zh) | 用于众包系统的动态激励计算方法、系统、设备及介质 | |
CN114154672A (zh) | 一种用于客户流失预测的数据挖掘方法 | |
CN114925854A (zh) | 一种基于梯度相似性度量的联邦学习节点选择方法及系统 | |
CN117010534A (zh) | 一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、系统及设备 | |
Sahoo et al. | Policy learning with competing agents | |
CN111510473B (zh) | 访问请求处理方法、装置、电子设备和计算机可读介质 | |
CN116522988B (zh) | 基于图结构学习的联邦学习方法、系统、终端及介质 | |
CN113761070A (zh) | 区块链情报数据共享激励方法、系统、设备和介质 | |
Mays et al. | Decentralized data allocation via local benchmarking for parallelized mobile edge learning | |
CN117216382A (zh) | 一种交互处理的方法、模型训练的方法以及相关装置 | |
CN117196058A (zh) | 一种基于节点贡献聚类的公平联邦学习方法 | |
CN114385359B (zh) | 一种物联网云边端任务时序协同方法 | |
Bo et al. | On optimal tracking portfolio in incomplete markets: The classical control and the reinforcement learning approaches | |
CN110111286A (zh) | 图像优化方式的确定方法和装置 | |
CN110688371B (zh) | 数据调整方法、装置、电子设备及存储介质 | |
DE102021132449B4 (de) | Verfahren zur Konfiguration eines neuronalen Netzes | |
CN113515383B (zh) | 系统资源数据分配方法和装置 | |
CN117669772A (zh) | 一种模型共享激励方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180824 |