CN111723402A - 一种基于ql学习策略面向mdu隐私数据保护的流量补偿激励方法 - Google Patents
一种基于ql学习策略面向mdu隐私数据保护的流量补偿激励方法 Download PDFInfo
- Publication number
- CN111723402A CN111723402A CN202010570068.9A CN202010570068A CN111723402A CN 111723402 A CN111723402 A CN 111723402A CN 202010570068 A CN202010570068 A CN 202010570068A CN 111723402 A CN111723402 A CN 111723402A
- Authority
- CN
- China
- Prior art keywords
- data
- mdu
- sensing
- privacy
- imdu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/10—Flow control between communication endpoints
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Algebra (AREA)
- Pure & Applied Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Analysis (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Optimization (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Emergency Protection Circuit Devices (AREA)
- Computer And Data Communications (AREA)
Abstract
一种基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法。设计MCS与MEC相结合的系统架构,通过EC将感知结果上传到MCS云,减少MCS云开销。构建一种基于MCMC的本地差分隐私属性相关性保护模型,生成属性相关性精确度更高的感知结果,并保护MDU隐私数据安全。设计基于QL机会协作传输的MDU隐私数据保护的流量补偿激励架构,减少MCS云的流量补偿开销,提高MDU参与积极性。与现有的高维属性数据隐私保护、机会中继感知激励等方法实验比较,QLPPIA方法平均提高感知结果准确性29.4%,降低MCS云开销89.92%,减少流量补偿开销19.03%。
Description
技术领域
本发明属于物联网领域,具体涉及一种基于QL(Q学习)学习策略面向MDU(移动设备用户)隐私数据保护的流量补偿激励方法。
背景技术
智能移动设备的使用给人们的生活带来极大的便利,移动设备配备各种各样的传感器,不可避免存在MDU数据隐私泄露的问题。MCS(移动群智感知)在环境气象监测,智能交通安全,医疗卫生保健、智慧城市管理等方面都发挥重要作用。MDU使用智能移动设备完成感知任务。任务发布者创建感知任务并向MCS云发布感知任务请求。MCS云招募MDU,并将感知任务分配给MDU。MDU收集多维属性数据记录,执行感知任务并将感知数据上传到MCS云。MCS云完成数据收集、处理、任务请求响应。
但是,MDU把感知数据直接上传给MCS云极易泄露其个人隐私。因此,需要在上传感知数据前,将收集到的感知数据本地私有化,完成MDU隐私数据保护。私有化策略会对数据集中的部分数据随机化,得到的感知数据会和原始数据有细微差别,降低感知数据的质量。所以,需要大量的MDU参与,提供更多的感知数据,这会导致MDU的数据量和MCS网络开销增加。设计MCS-MEC(移动边缘计算)架构可以减少MCS云和MDU的开销(包括存储、传输、计算等开销)。EC(边缘中心)在本地完成私有化感知数据、聚合和恢复感知数据的工作,不需要将全部的感知数据都上传给MCS云处理,而是将聚合、恢复的感知数据上传,不仅减少MCS云大量的工作,还避免MDU的隐私泄露。MCS网络需要收集具备丰富功能传感器的智能手机、可穿戴设备、智能家电等设备的感知数据。但是当MDU需要传输的感知数据量较大时,会造成MDU消耗更多的流量、电量以及数据隐私问题的担忧。因此需要设计有效的面向MDU数据隐私保护的激励方法,满足MDU在个性化隐私保护的前提下,更愿意参与MCS感知任务。
发明内容
本文提出一种基于QL(Q学习)学习策略面向MDU隐私数据保护的流量补偿激励方法(QLPPIA)。针对多维属性的MDU设计MCS-MEC系统模型,保护MDU个人隐私并且减少MCS云开销。通过私有化算法、聚合算法保护MDU的隐私数据,同时提高MCS云接收的感知结果的准确性。设计一种基于QL学习的流量补偿激励模型。迭代更新路径价值,通过QL机会协作传输,找到从IMDU到MMDU最小化流量补偿开销的最优路径,提高MDU的参与积极性。实验证明,本文提出的QLPPIA方法提高感知数据的准确性,保护MDU隐私数据,实现MCS云最小化流量补偿开销,提高MDU的感知任务参与积极性。
本发明的基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,主要包括如下关键步骤:
第1、系统模型的构建:
第1.1、MCS-MEC隐私保护系统模型;
第1.2、差分隐私保护策略;
第1.3、机会协作传输;
第1.4、问题描述;
第2、QLPPIA方法:
第2.1、属性相关性估计;
第2.2、私有化策略;
第2.3、恢复、聚合策略;
第2.4、基于QL协作上传的流量补偿激励策略。
进一步的,步骤第1.1中建立了MCS-MEC隐私保护系统模型,即在每个MCS区域中,根据EC的覆盖范围对其进行部署,MCS云只需要完成发布和接受感知数据的工作,将分配感知任务、生成私有化策略、聚合和恢复感知数据的工作量交由EC处理。EC收集的感知数据受到本地差异隐私策略的保护,该结果不会泄漏MDU的隐私信息。采用MCS-MEC模型,EC聚合所有私有化感知数据,并恢复感知结果的真实数据,减少MDU向MCS云上传的感知数据量。
步骤第1.2中的差分隐私保护策略,是在MDU收集到的感知数据集中加入仔细校准的噪声,可以阻止攻击者从感知结果数据集中推断出任何MDU的隐私信息。对于任何移动设备用户i,原始感知数据Mi∈S,其中S为MDU收集的原始感知数据集,私有化感知数据Mi *∈S*,其中S*为私有化的感知数据集。私有化策略K是输入感知数据记录{Mi}∈S并且输出{Mi *}∈S*的随机算法,满足隐私预算η∈(0,+∞),如公式(1)所示:
K({Mi}∈S*)≤eη*K({Mi+1}∈S*) (1)
其中,K({Mi *}∈S)=prob({Mi *}∈S*|M=Mi),prob为感知数据的概率统计。
步骤第1.3所述的机会协作传输描述如下,采用机会协作传输感知数据,可以减少MDU对通信基础设施的依赖和其本身的流量开销,根据MDU移动过程中的相遇机会,当MDU接收到上一跳MDU的感知数据后,携带感知数据直到相遇下一跳MDU,再把其感知数据转发出去。机会协作传输可以减少MDU完成较大数据量的感知任务时的流量消耗。
步骤第1.4中的问题描述为:在本地差分隐私前提下,本文研究多维属性数据的分布式感知数据扰动、聚合。不受信任的EC需要聚合所有MDU的多维属性感知数据并得出统计结果,实现最佳准确性的感知任务结果。准确性表示为聚合私有化的感知数据结果能够还原感知数据真实信息的程度。
假设原始感知数据集和私有化感知数据集分别为X和X*,其分别对应的感知数据为Wi和Wi *,私有化感知数据Wi *∈X满足公式(2):
私有化策略的精确性C表示为公式(3):
C[K]=prob[Wi]-max[Wi *] (3)
进一步的,步骤第2.1中的属性相关性估计方法如下,针对g(2≤g≤d)维的真实感知数据集,使用贝叶斯先验概率和MCMC(马尔科夫链蒙特卡罗)后验概率,迭代并更新属性相关性。将属性相关性引入私有化策略中,使得感知结果更加精确,同时保证MDU个人的属性相关性隐私。感知数据的属性相关性的估计,首先由先验概率推测,再计算出后验概率,用后验概率的期望更新先验概率。
属性相关性Relationx,y根据属性间的相互信息计算,如公式(4):
基于MCMC后验分布的估计,蒙特卡罗优化概率方法:采用Metropolis-Hastting随机抽样方法,需要大量的感知数据使其结果接近最真实概率。由于马尔科夫链的收敛性,采用MCMC方法解决复杂的后验分布进行多维属性数据运算的问题。为待估计属性值的后验分布生成平稳分布的马尔科夫链,采用Metropolis-Hasting抽样算法从该链中生成后验分布数据,对后验分布数据计算蒙特卡洛积分。
步骤第2.2所述私有化策略描述如下:
算法1QLPPIA方法的私有化算法的步骤描述如下:
步骤1:所有感知结果根据公式(4)生成属性相关性,生成感知数据集;
步骤2:生成私有化策略;
步骤3:生成并返回私有化感知数据集的结果。
步骤第2.3所述恢复、聚合策略描述如下:
算法2QLPPIA方法的恢复、聚合感知数据算法的步骤描述如下:
步骤1:遍历每个私有化感知数据,计算其属性相关性;
步骤2:遍历每个属性,将属性相关性最高的感知数据添加到私有化数据集中;
步骤3:返回聚合和恢复的感知结果数据集。
步骤第2.4所述基于QL协作上传的流量补偿激励策略描述如下,QLPPIA方法的激励策略中包含MDU分类和MDU上传:1)MDU分类是由EC得出的,通过感知数据量和基于QL的移动路径预测将MDU分为流量月租型移动设备用户MMDU和即用即付费型移动设备用户IMDU。2)MDU上传策略采用QL机会协作传输,当MDU之间相遇或者连接上蓝牙、WiFi、热点等,该上传策略将作出上传或者保留感知数据的选择。最后由QL算法得出最大化路径价值的感知数据传输方式,即最小化流量消耗的传输方式。
流量补偿激励策略运行的前提是对MDU进行精确的分类。第x个MDU在第y个感知周期内的感知数据大小表示为Sx,y,感知任务可分为相同数据量的感知任务和不同数据量的感知任务。相同数据量感知任务的数据大小表示为公式(6):
Sx,y=c (6)
其中,c为历史估计感知数据量大小的常数,表示对于不同的MDU和感知周期,完成感知任务收集的感知数据大小相同。
不同数据量感知任务的数据大小表示为公式(7):
Sx,y=c+t×Lx,y+ηx (7)
其中,c为历史估计感知数据量大小的恒定常数,用于聚合感知数据,t是不同位置的单位感知数据规模,Lx,y是第x个MDU在感知周期y中访问的位置总数,ηx表示不同MDU的隐私保护级别。
通过QL方法不断更新和维护MDU的移动路径,可以预测IMDU是否在感知周期内进行QL机会协作传输,而不消耗自身流量的概率。第x个MDU在感知周期y中QL机会协作传输的概率服从泊松分布,表示为公式(8):
Jx,y=(|Gy|-cooperation(x,Gy)·e)/|Gy| (8)
QL感知数据上传策略是不同类别MDU相互协作上传感知数据的算法,在MDU收集和私有化感知数据后,决定IMDU使用3G/4G/5G流量上传数据,或者借助蓝牙、热点、WiFi等上传数据,或者转发给其他MMDU上传数据,或者保留感知数据。
在MCS-MEC的学习环境中,IMDU和MMDU为学习主体,QL作为一种无监督的智能学习算法,实时与周围环境交换感知数据,学习过程中不断迭代更新路径价值元组。QL上传策略的目标找到找到流量消耗最少的路径。QL上传策略与隐私预算,感知数据的大小,机会协作传输的概率三者相关。标准的QL学习方法得到的需要更新的路径价值QIMDU(EC,NMMDU)函数表示为公式(9):
其中,IMDU为即用即付费型MDU,MMDU为流量月租型MDU,NNMMDU为IMDU相邻MMDU的集合,EC为传输范围内的边缘中心,I为QL的初始路径价值,为到达EC时IMDU与其相邻NMMDU的路径价值最大值。
结合实际情况改进公式(9)得到新的QIMDU(EC,NMMDU)函数为公式(10):
打折因子δ作为重要因素决定一次协作上传时间获得的路径价值。隐私预算ηMDU是MDU上传感知数据的个性化隐私级别,将隐私级别作为打折因子,决定QL方法的路径价值。
对于MDU的流量补偿包括IMDU的流量补偿、MMDU的流量补偿、激励策略的流量奖励三个方面,我们需要解决的问题为最小化流量补偿函数如公式(11):
其中,TCIMDU,TCMMDU,rewardIM分别为IMDU的流量补偿、MMDU的流量补偿、激励策略的流量奖励。
MMDU流量补偿:任务组织者按比率补偿MMDU流量月租费用,并会对其超出月租之外的流量费用作出补偿,MMDU的流量补偿函数为公式(12):
其中,P为MDU的流量补偿比率,当thresholdi≤P≤1时,MDU愿意参与感知任务,thresholdi为每个MDU比率P的阈值,overtraffic为超出MMDU的流量大小,costMMDU和costIMDU分别为两种MDU的流量补偿单价。
IMDU的流量补偿:任务组织者补偿IMDU完成感知任务消耗的全部流量,IMDU的流量补偿函数为公式(13):
其中,JIMDU,y为IMDU进行QL机会协作传输的概率,SIMDU,y为IMDU在感知周期y内的感知数据大小。
QL迭代更新生成的路径价值也对激励函数有重要作用。对于MDU的激励函数表示为公式(14):
rewardIM=(costIMDU/(1+ε·qMDU,y))·SIMDU,y+QIMDU(EC,NMMDU) (14)
其中,qMDU,y表示MDU的剩余电量,ε(ε>0)表示影响奖励程度,QIMDU(EC,NMMDU)为多次迭代更新QL机会协作传输的路径价值。
QLPPIA方法的激励算法的详细步骤,第一步是完成对MDU的分类;第二步是根据公式(8)计算MMDU协助IMDU传输感知数据的概率;第三步是读取数据表中MDU的电量使用情况;第四步是根据公式(10)计算QL上传策略的路径价值,根据公式(12)计算MMDU的流量补偿值,根据公式(13)计算IMDU的流量补偿值,根据公式(14)计算MDU的激励函数,得出激励MDU的奖励值;第5步是根据公式(11)计算最小化流量补偿函数,并返回流量补偿的最小值。
本发明的优点和积极效果是:
本发明主要设计了一种基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,在该方法中,设计一种基于MCMC概率学习方法的多维属性数据个性化隐私保护模型,构建MCS-MEC网络系统模型,减少MCS云传输、处理的感知数据量。设计针对MDU收集的原始感知数据的私有化策略,由EC进行本地隐私保护,接收私有化数据,不会获得MDU个人的隐私数据,最后通过聚合、恢复算法,得到最终感知任务结果,实验证明,对于该系统模型和私有化策略可以减少MCS云的工作量,提高感知结果的准确性;设计一种基于QL学习方法的MDU流量补偿激励架构,使用QL学习方法不断更新MDU上传数据过程中的路径价值,将MDU分类为流量月租型移动设备用户MMDU和即用即付型移动设备用户IMDU,使用QL机会协作传输策略,MMDU帮助IMDU上传感知数据,MCS云对MDU的消耗作出流量补偿,实验证明,QLPPIA方法可以最小化MDU执行感知任务的流量补偿开销,并且提高MDU参与感知任务的积极性。
附图说明
图1是集中式MCS云系统模型;
图2是分布式MCS-MEC隐私保护系统模型;
图3是感知数据准确率(隐私参数=1,感知数据量较大);
图4是感知数据准确率(隐私参数=5,感知数据量较小);
图5是感知数据准确率(隐私参数=3,感知数据量适中);
图6是EC处理的感知数据比率;
图7是感知数据准确率(隐私参数=5,感知数据量较大);
图8是感知数据准确率(隐私参数=7,感知数据量较小);
图9是固定数据量的流量补偿开销;
图10是非固定数据量的流量补偿开销(c=0);
图11是非固定数据量的流量补偿开销(c=600);
图12是不同上传策略的流量补偿开销;
图13是QLPPIA方法激励策略的奖励情况;
图14是MDU上传感知数据的积极性。
图15是本发明基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法的流程图。
具体实施方式
实施例1:
本实施例设计的开发工具为PyCharm5.0.3,开发语言为Python3.5.2,使用组件DEAP(DistributedEvolutionaryAlgorithmsinPython)、SciPy科学计算、Matplotlib科学绘图等进行性能评估。性能评估的主要目标是确定QLPPIA方法在隐私保护和流量补偿激励方面对MCS(移动群智感知)网络服务质量与安全的影响。主要涉及的实施操作有数据集的选择以及具体的算法计算过程。
参见附图15,本实施例基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,主要包括如下关键步骤:
第1、系统模型的构建:
第1.1、MCS-MEC隐私保护系统模型;
第1.2、差分隐私保护策略;
第1.3、机会协作传输;
第1.4、问题描述;
第2、QLPPIA方法:
第2.1、属性相关性估计;
第2.2、私有化策略;
第2.3、恢复、聚合策略;
第2.4、基于QL协作上传的流量补偿激励策略。
本发明步骤第1.1中建立了MCS-MEC隐私保护系统模型,参见附图1和附图2,即在每个MCS区域中,根据EC的覆盖范围对其进行部署,MCS云只需要完成发布和接受感知数据的工作,将分配感知任务、生成私有化策略、聚合和恢复感知数据的工作量交由EC处理。EC收集的感知数据受到本地差异隐私策略的保护,该结果不会泄漏MDU的隐私信息。采用MCS-MEC模型,EC聚合所有私有化感知数据,并恢复感知结果的真实数据,减少MDU向MCS云上传的感知数据量。
步骤第1.2中的差分隐私保护策略,是在MDU收集到的感知数据集中加入仔细校准的噪声,可以阻止攻击者从感知结果数据集中推断出任何MDU的隐私信息。对于任何移动设备用户i,原始感知数据Mi∈S,其中S为MDU收集的原始感知数据集,私有化感知数据Mi *∈S*,其中S*为私有化的感知数据集。私有化策略K是输入感知数据记录{Mi}∈S并且输出{Mi *}∈S*的随机算法,满足隐私预算η∈(0,+∞),如公式(1)所示:
K({Mi}∈S*)≤eη*K({Mi+1}∈S*) (1)
其中,K({Mi *}∈S)=prob({Mi *}∈S*|M=Mi),prob为感知数据的概率统计。
步骤第1.3所述的机会协作传输描述如下,采用机会协作传输感知数据,可以减少MDU对通信基础设施的依赖和其本身的流量开销,根据MDU移动过程中的相遇机会,当MDU接收到上一跳MDU的感知数据后,携带感知数据直到相遇下一跳MDU,再把其感知数据转发出去。机会协作传输可以减少MDU完成较大数据量的感知任务时的流量消耗。
步骤第1.4中的问题描述为:在本地差分隐私前提下,本文研究多维属性数据的分布式感知数据扰动、聚合。不受信任的EC需要聚合所有MDU的多维属性感知数据并得出统计结果,实现最佳准确性的感知任务结果。准确性表示为聚合私有化的感知数据结果能够还原感知数据真实信息的程度。
假设原始感知数据集和私有化感知数据集分别为X和X*,其分别对应的感知数据为Wi和Wi*,私有化感知数据Wi*∈X满足公式(2):
私有化策略的精确性C表示为公式(3):
C[K]=prob[Wi]-max[Wi *] (3)
进一步的,步骤第2.1中的属性相关性估计方法如下,针对g(2≤g≤d)维的真实感知数据集,使用贝叶斯先验概率和MCMC后验概率,迭代并更新属性相关性。将属性相关性引入私有化策略中,使得感知结果更加精确,同时保证MDU个人的属性相关性隐私。感知数据的属性相关性的估计,首先由先验概率推测,再计算出后验概率,用后验概率的期望更新先验概率。
属性相关性Relationx,y根据属性间的相互信息计算,如公式(4):
基于MCMC后验分布的估计,蒙特卡罗优化概率方法:采用Metropolis-Hastting随机抽样方法,需要大量的感知数据使其结果接近最真实概率。由于马尔科夫链的收敛性,采用MCMC方法解决复杂的后验分布进行多维属性数据运算的问题。为待估计属性值的后验分布生成平稳分布的马尔科夫链,采用Metropolis-Hasting抽样算法从该链中生成后验分布数据,对后验分布数据计算蒙特卡洛积分。
步骤第2.2所述私有化策略描述如下:
算法1QLPPIA方法的私有化算法的步骤描述如下:
步骤1:所有感知结果根据公式(4)生成属性相关性,生成感知数据集;
步骤2:生成私有化策略;
步骤3:生成并返回私有化感知数据集的结果。
步骤第2.3所述恢复、聚合策略描述如下:
算法2QLPPIA方法的恢复、聚合感知数据算法的步骤描述如下:
步骤1:遍历每个私有化感知数据,计算其属性相关性;
步骤2:遍历每个属性,将属性相关性最高的感知数据添加到私有化数据集中;
步骤3:返回聚合和恢复的感知结果数据集。
步骤第2.4所述基于QL协作上传的流量补偿激励策略描述如下,QLPPIA方法的激励策略中包含MDU分类和MDU上传:1)MDU分类是由EC得出的,通过感知数据量和基于QL的移动路径预测将MDU分为流量月租型移动设备用户MMDU和即用即付费型移动设备用户IMDU。2)MDU上传策略采用QL机会协作传输,当MDU之间相遇或者连接上蓝牙、WiFi、热点等,该上传策略将作出上传或者保留感知数据的选择。最后由QL算法得出最大化路径价值的感知数据传输方式,即最小化流量消耗的传输方式。
流量补偿激励策略运行的前提是对MDU进行精确的分类。第x个MDU在第y个感知周期内的感知数据大小表示为Sx,y,感知任务可分为相同数据量的感知任务和不同数据量的感知任务。相同数据量感知任务的数据大小表示为公式(6):
Sx,y=c (6)
其中,c为历史估计感知数据量大小的常数,表示对于不同的MDU和感知周期,完成感知任务收集的感知数据大小相同。
不同数据量感知任务的数据大小表示为公式(7):
Sx,y=c+t×Lx,y+ηx (7)
其中,c为历史估计感知数据量大小的恒定常数,用于聚合感知数据,t是不同位置的单位感知数据规模,Lx,y是第x个MDU在感知周期y中访问的位置总数,ηx表示不同MDU的隐私保护级别。
通过QL方法不断更新和维护MDU的移动路径,可以预测IMDU是否在感知周期内进行QL机会协作传输,而不消耗自身流量的概率。第x个MDU在感知周期y中QL机会协作传输的概率服从泊松分布,表示为公式(8):
Jx,y=(|Gy|-cooperation(x,Gy)·e)/|Gy| (8)
QL感知数据上传策略是不同类别MDU相互协作上传感知数据的算法,在MDU收集和私有化感知数据后,决定IMDU使用3G/4G/5G流量上传数据,或者借助蓝牙、热点、WiFi等上传数据,或者转发给其他MMDU上传数据,或者保留感知数据。
在MCS-MEC的学习环境中,IMDU和MMDU为学习主体,QL作为一种无监督的智能学习算法,实时与周围环境交换感知数据,学习过程中不断迭代更新路径价值元组。QL上传策略的目标找到找到流量消耗最少的路径。QL上传策略与隐私预算,感知数据的大小,机会协作传输的概率三者相关。标准的QL学习方法得到的需要更新的路径价值QIMDU(EC,NMMDU)函数表示为公式(9):
其中,IMDU为即用即付费型MDU,MMDU为流量月租型MDU,NNMMDU为IMDU相邻MMDU的集合,EC为传输范围内的边缘中心,I为QL的初始路径价值,为到达EC时IMDU与其相邻NMMDU的路径价值最大值。
结合实际情况改进公式(9)得到新的QIMDU(EC,NMMDU)函数为公式(10):
打折因子δ作为重要因素决定一次协作上传时间获得的路径价值。隐私预算ηMDU是MDU上传感知数据的个性化隐私级别,将隐私级别作为打折因子,决定QL方法的路径价值。对于MDU的流量补偿包括IMDU的流量补偿、MMDU的流量补偿、激励策略的流量奖励三个方面,我们需要解决的问题为最小化流量补偿函数如公式(11):
其中,TCIMDU,TCMMDU,rewardIM分别为IMDU的流量补偿、MMDU的流量补偿、激励策略的流量奖励。
MMDU流量补偿:任务组织者按比率补偿MMDU流量月租费用,并会对其超出月租之外的流量费用作出补偿,MMDU的流量补偿函数为公式(12):
其中,P为MDU的流量补偿比率,当thresholdi≤P≤1时,MDU愿意参与感知任务,thresholdi为每个MDU比率P的阈值,overtraffic为超出MMDU的流量大小,costMMDU和costIMDU分别为两种MDU的流量补偿单价。
IMDU的流量补偿:任务组织者补偿IMDU完成感知任务消耗的全部流量,IMDU的流量补偿函数为公式(13):
其中,JIMDU,y为IMDU进行QL机会协作传输的概率,SIMDU,y为IMDU在感知周期y内的感知数据大小。
QL迭代更新生成的路径价值也对激励函数有重要作用。对于MDU的激励函数表示为公式(14):
rewardIM=(costIMDU/(1+ε·qMDU,y))·SIMDU,y+QIMDU(EC,NMMDU) (14)
其中,qMDU,y表示MDU的剩余电量,ε(ε>0)表示影响奖励程度,QIMDU(EC,NMMDU)为多次迭代更新QL机会协作传输的路径价值。
QLPPIA方法的激励算法的详细步骤,第一步是完成对MDU的分类;第二步是根据公式(8)计算MMDU协助IMDU传输感知数据的概率;第三步是读取数据表中MDU的电量使用情况;第四步是根据公式(10)计算QL上传策略的路径价值,根据公式(12)计算MMDU的流量补偿值,根据公式(13)计算IMDU的流量补偿值,根据公式(14)计算MDU的激励函数,得出激励MDU的奖励值;第5步是根据公式(11)计算最小化流量补偿函数,并返回流量补偿的最小值。
本实例中,QLPPIA方法的隐私保护策略实验使用GeoLifeGPSTrajectories数据集。由微软亚洲研究Geolife在2012年发布,包括2007年4月至2012年8月五年期间的182个MDU产生的17621个感知数据。该数据集中包括轨迹属性(例如位置属性和时间属性)、交通方式属性;
QLPPIA方法的激励策略实验使用RealityMining数据集和DeviceAnalyzer数据集。RealityMining数据集包括2004年10月至2004年11月两个月期间的94名移动设备的感知数据。由于RealityMining数据集中WiFi的感知数据不足,所以使用Deviceanalyzer数据集中的移动设备感知数据补充RealityMining数据集。设置MDU的电量阈值为百分之五十,需要在大于等于该阈值的条件下,MMDU会帮助IMDU上传感知数据。
本实例的仿真实验结果如下:
1.QLPPIA方法的隐私保护性能评估
实验参数设置如表1所示。令(a)表示键值数据隐私保护策略,(b)表示高维数据隐私保护策略,(c)表示基于期望最大化关联学习算法的隐私保护策略,(d)表示基于节点树算法的隐私保护策略,(e)表示QLPPIA方法的隐私保护策略。
表1隐私保护模型实验参数
附图3为感知数据准确率(隐私参数=1,感知数据量较大),从图中可以看出,隐私保护策略(e)比其它四种隐私保护策略的准确性平均提高31.17%。
附图4为感知数据准确率(隐私参数=5,感知数据量较小),从图中可以看出,隐私保护策略(e)比(a)(c)(d)三种隐私保护策略的准确性平均提高32.94%,和隐私保护策略(b)精确度相似。
附图5为感知数据准确率(隐私参数=3,感知数据量适中),从图中可以看出,隐私保护策略(e)比其它四种隐私保护策略的准确性平均提高24.09%。
附图6为EC处理的感知数据比率,从图中可以看出,在不同的隐私级别下,EC平均帮助MCS云传输89.92%的感知数据,减少MCS云89.92%的工作量。
附图7为感知数据准确率(隐私参数=5,感知数据量较大),与附图4相比,隐私参数不变,感知数据量增大,5种隐私保护策略的准确性均有所提高。
附图8为感知数据准确率(隐私参数=7,感知数据量较小),从图中可以看出,与附图4相比,感知数据量不变,隐私级别提高,5种隐私保护策略的精确性均有所下降,但仍能够保证正常的数据聚合、恢复的精确度性能。
2.QLPPIA方法的流量补偿激励性能评估
将QLPPIA方法的激励策略与MDU直接分配激励策略、机会中继感知激励策略、MDU参与感知激励策略、MCS任务质量感知激励策略进行对比,MDU直接分配激励策略根据感知数据量大小对MDU分类,机会中继感知激励策略根据MDU执行感知任务消耗的流量对用户退款。实验参数设置如表2所示。
表2隐私保护模型实验参数
1)相同数据量感知任务
假定完成每个感知任务周期产生的感知数据量是恒定范围的,对流量补偿预算进行实验,(a)表示直接分配激励策略,(b)表示机会中继感知激励策略,(c)表示MCS任务质量感知激励策略,(d)表示MDU参与感知激励策略,(e)表示QLPPIA方法的激励策略。
附图9为固定数据量的流量补偿开销,从图中可以看出,随着感知数据量由3000KB增加到8000KB,五种激励策略的开销也同时增加。在固定感知数据量的基础上,(a)激励策略的开销最大,另外四种开销较少。感知数据量在3000KB-5000KB范围内,激励策略(b)和(e)的流量补偿开销相似,随着感知数据量的增大,在5500KB-8000KB范围内,激励策略(b)与(c)的流量补偿开销差距逐渐增大,MDU更愿意使用QL机会协作传输上传感知数据,激励策略(c)会产生更少的开销。激励策略(e)在激励开销方面比其他四种激励策略平均减少18.44%的开销。
2)不同数据量感知任务
考虑公式(7)中历史估计感知数据量大小的恒定常数c=0和c≠0的情况,设置每个访问EC的单位元设置为EC=(300KB,1650KB)。
附图10为非固定数据量的流量补偿开销(c=0),从图中可以看出,激励策略(e)在激励开销方面比其余四种激励策略平均减少19.17%的开销。
附图11为非固定数据量的流量补偿开销(c=600),从图中可以看出,激励策略(e)在激励开销方面比其余四种激励策略平均减少19.49%的开销。比附图9高出的流量开销是由于c≠0导致的。
3)QL感知数据上传策略
附图12为不同上传策略的流量补偿开销,从图中可以看出,采用固定感知任务数据,比较(a)直接分配感知数据上传策略、(b)一次传输感知数据上传策略、(c)单跳泛洪感知数据传输策略、(d)完全泛洪感知数据传输策略、(e)QL泛洪感知数据传输策略在节省流量补偿开销的差异。其中,(e)策略开销最少,(a)策略开销最大。当感知数据量为3000KB-5000KB/感知周期时,(e)策略比(d)策略减少5.00%的开销。当感知数据量为5000KB-8000KB/感知周期时,(e)策略比(d)策略减少3.19%的开销。当需要上传较少的感知数据量时,会减少MDU被分类为MMDU的数量,导致更多的IMDU加入感知任务,提高QL泛洪传输策略的性能。
4)QLPPIA方法的激励策略效果
附图13为QLPPIA方法激励策略的奖励情况,从图中可以看出,当需要上传的感知数据量为2000KB时,48名MDU实验对象中有4名愿意采用QL机会协作传输感知数据;而当需要上传的感知数据量为8000KB时,共有14名MDU实验对象愿意采用QL机会协作传输。在需要MDU上传的数据量较小时,IMDU和MMDU一般会选择自己上传,当需要传输的感知数据量需求量增多的时候,MDU更多地参与到机会协作传输中,并且获得的奖励越多。
附图14为MDU上传感知数据的积极性,从图中可以看出,MDU通常会选择在平均49.48%延迟上传时间时传输感知数据,并且没有MDU在延迟时间结束时上传感知数据,平均50.52%的缓冲时间可以减少MDU感知数据聚集造成的EC的工作压力。
Claims (10)
1.一种基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于该方法主要包括如下步骤:
第1、系统模型的构建:
第1.1、MCS-MEC隐私保护系统模型;
第1.2、差分隐私保护策略;
第1.3、机会协作传输;
第1.4、问题描述;
第2、QLPPIA方法:
第2.1、属性相关性估计;
第2.2、私有化策略;
第2.3、恢复、聚合策略;
第2.4、基于QL协作上传的流量补偿激励策略。
2.如权利要求1所述的基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于,步骤第1.1中建立了MCS-MEC隐私保护系统模型,即在每个MCS区域中,根据EC的覆盖范围对其进行部署,MCS云只需要完成发布和接受感知数据的工作,将分配感知任务、生成私有化策略、聚合和恢复感知数据的工作量交由EC处理;EC收集的感知数据受到本地差异隐私策略的保护,该结果不会泄漏MDU的隐私信息。采用MCS-MEC模型,EC聚合所有私有化感知数据,并恢复感知结果的真实数据,减少MDU向MCS云上传的感知数据量。
3.如权利要求1所述的基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于,步骤第1.2中的差分隐私保护策略,是在MDU收集到的感知数据集中加入仔细校准的噪声,可以阻止攻击者从感知结果数据集中推断出任何MDU的隐私信息;对于任何移动设备用户i,原始感知数据Mi∈S,其中S为MDU收集的原始感知数据集,私有化感知数据Mi *∈S*,其中S*为私有化的感知数据集;私有化策略K是输入感知数据记录{Mi}∈S并且输出{Mi *}∈S*的随机算法,满足隐私预算η∈(0,+∞),如公式(1)所示:
K({Mi}∈S*)≤eη*K({Mi+1}∈S*) (1)
其中,K({Mi *}∈S)=prob({Mi *}∈S*|M=Mi),prob为感知数据的概率统计。
4.如权利要求1所述的基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于,步骤第1.3所述的机会协作传输描述如下,采用机会协作传输感知数据,可以减少MDU对通信基础设施的依赖和其本身的流量开销,根据MDU移动过程中的相遇机会,当MDU接收到上一跳MDU的感知数据后,携带感知数据直到相遇下一跳MDU,再把其感知数据转发出去,机会协作传输可以减少MDU完成较大数据量的感知任务时的流量消耗。
6.如权利要求1所述的基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于,步骤第2.1中的属性相关性估计方法如下,针对g(2≤g≤d)维的真实感知数据集,使用贝叶斯先验概率和MCMC后验概率,迭代并更新属性相关性;将属性相关性引入私有化策略中,使得感知结果更加精确,同时保证MDU个人的属性相关性隐私;感知数据的属性相关性的估计,首先由先验概率推测,再计算出后验概率,用后验概率的期望更新先验概率;
属性相关性Relationx,y根据属性间的相互信息计算,如公式(4):
基于MCMC后验分布的估计,蒙特卡罗优化概率方法:采用Metropolis-Hastting随机抽样方法,需要大量的感知数据使其结果接近最真实概率;由于马尔科夫链的收敛性,采用MCMC方法解决复杂的后验分布进行多维属性数据运算的问题;为待估计属性值的后验分布生成平稳分布的马尔科夫链,采用Metropolis-Hasting抽样算法从该链中生成后验分布数据,对后验分布数据计算蒙特卡洛积分。
7.如权利要求1所述的基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于,步骤第2.2所述私有化策略描述如下:
算法1QLPPIA方法的私有化算法的步骤描述如下:
步骤1:所有感知结果根据公式(4)生成属性相关性,生成感知数据集;
步骤2:生成私有化策略;
步骤3:生成并返回私有化感知数据集的结果。
8.如权利要求1所述的基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于,步骤第2.3所述恢复、聚合策略描述如下:
算法2QLPPIA方法的恢复、聚合感知数据算法的步骤描述如下:
步骤1:遍历每个私有化感知数据,计算其属性相关性;
步骤2:遍历每个属性,将属性相关性最高的感知数据添加到私有化数据集中;
步骤3:返回聚合和恢复的感知结果数据集。
9.如权利要求1所述的基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于,步骤第2.4所述基于QL协作上传的流量补偿激励策略描述如下,QLPPIA方法的激励策略中包含MDU分类和MDU上传:1)MDU分类是由EC得出的,通过感知数据量和基于QL的移动路径预测将MDU分为流量月租型移动设备用户MMDU和即用即付费型移动设备用户IMDU;2)MDU上传策略采用QL机会协作传输,当MDU之间相遇或者连接上蓝牙、WiFi、热点,该上传策略将作出上传或者保留感知数据的选择;最后由QL算法得出最大化路径价值的感知数据传输方式,即最小化流量消耗的传输方式。
10.如权利要求1或9所述的基于QL学习策略面向MDU隐私数据保护的流量补偿激励方法,其特征在于,流量补偿激励策略运行的前提是对MDU进行精确的分类,第x个MDU在第y个感知周期内的感知数据大小表示为Sx,y,感知任务可分为相同数据量的感知任务和不同数据量的感知任务,相同数据量感知任务的数据大小表示为公式(6):
Sx,y=c (6)
其中,c为历史估计感知数据量大小的常数,表示对于不同的MDU和感知周期,完成感知任务收集的感知数据大小相同;
不同数据量感知任务的数据大小表示为公式(7):
Sx,y=c+t×Lx,y+ηx (7)
其中,c为历史估计感知数据量大小的恒定常数,用于聚合感知数据,t是不同位置的单位感知数据规模,Lx,y是第x个MDU在感知周期y中访问的位置总数,ηx表示不同MDU的隐私保护级别;
通过QL方法不断更新和维护MDU的移动路径,可以预测IMDU是否在感知周期内进行QL机会协作传输,而不消耗自身流量的概率,第x个MDU在感知周期y中QL机会协作传输的概率服从泊松分布,表示为公式(8):
Jx,y=(|Gy|-cooperation(x,Gy)·e)/|Gy| (8)
QL感知数据上传策略是不同类别MDU相互协作上传感知数据的算法,在MDU收集和私有化感知数据后,决定IMDU使用3G/4G/5G流量上传数据,或者借助蓝牙、热点、WiFi等上传数据,或者转发给其他MMDU上传数据,或者保留感知数据;
在MCS-MEC的学习环境中,IMDU和MMDU为学习主体,QL作为一种无监督的智能学习算法,实时与周围环境交换感知数据,学习过程中不断迭代更新路径价值元组,QL上传策略的目标找到找到流量消耗最少的路径,QL上传策略与隐私预算,感知数据的大小,机会协作传输的概率三者相关,标准的QL学习方法得到的需要更新的路径价值QIMDU(EC,NMMDU)函数表示为公式(9):
其中,IMDU为即用即付费型MDU,MMDU为流量月租型MDU,NNMMDU为IMDU相邻MMDU的集合,EC为传输范围内的边缘中心,I为QL的初始路径价值,为到达EC时IMDU与其相邻NMMDU的路径价值最大值;
结合实际情况改进公式(9)得到新的QIMDU(EC,NMMDU)函数为公式(10):
打折因子δ作为重要因素决定一次协作上传时间获得的路径价值,隐私预算ηMDU是MDU上传感知数据的个性化隐私级别,将隐私级别作为打折因子,决定QL方法的路径价值;
对于MDU的流量补偿包括IMDU的流量补偿、MMDU的流量补偿、激励策略的流量奖励三个方面,我们需要解决的问题为最小化流量补偿函数如公式(11):
其中,TCIMDU,TCMMDU,rewardIM分别为IMDU的流量补偿、MMDU的流量补偿、激励策略的流量奖励;
MMDU流量补偿:任务组织者按比率补偿MMDU流量月租费用,并会对其超出月租之外的流量费用作出补偿,MMDU的流量补偿函数为公式(12):
其中,P为MDU的流量补偿比率,当thresholdi≤P≤1时,MDU愿意参与感知任务,thresholdi为每个MDU比率P的阈值,overtraffic为超出MMDU的流量大小,costMMDU和costIMDU分别为两种MDU的流量补偿单价;
IMDU的流量补偿:任务组织者补偿IMDU完成感知任务消耗的全部流量,IMDU的流量补偿函数为公式(13):
其中,JIMDU,y为IMDU进行QL机会协作传输的概率,SIMDU,y为IMDU在感知周期y内的感知数据大小;
QL迭代更新生成的路径价值也对激励函数有重要作用,对于MDU的激励函数表示为公式(14):
rewardIM=(costIMDU/(1+ε·qMDU,y))·SIMDU,y+QIMDU(EC,NMMDU) (14)
其中,qMDU,y表示MDU的剩余电量,ε(ε>0)表示影响奖励程度,QIMDU(EC,NMMDU)为多次迭代更新QL机会协作传输的路径价值;
QLPPIA方法的激励算法的详细步骤,第一步是完成对MDU的分类;第二步是根据公式(8)计算MMDU协助IMDU传输感知数据的概率;第三步是读取数据表中MDU的电量使用情况;第四步是根据公式(10)计算QL上传策略的路径价值,根据公式(12)计算MMDU的流量补偿值,根据公式(13)计算IMDU的流量补偿值,根据公式(14)计算MDU的激励函数,得出激励MDU的奖励值;第5步是根据公式(11)计算最小化流量补偿函数,并返回流量补偿的最小值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010570068.9A CN111723402B (zh) | 2020-06-21 | 2020-06-21 | 一种基于ql学习策略面向mdu隐私数据保护的流量补偿激励方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010570068.9A CN111723402B (zh) | 2020-06-21 | 2020-06-21 | 一种基于ql学习策略面向mdu隐私数据保护的流量补偿激励方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111723402A true CN111723402A (zh) | 2020-09-29 |
CN111723402B CN111723402B (zh) | 2023-05-30 |
Family
ID=72569657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010570068.9A Active CN111723402B (zh) | 2020-06-21 | 2020-06-21 | 一种基于ql学习策略面向mdu隐私数据保护的流量补偿激励方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111723402B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112423027A (zh) * | 2020-10-22 | 2021-02-26 | 武汉理工大学 | 一种基于差分隐私的移动流媒体边缘协作分发装置及方法 |
CN116702214A (zh) * | 2023-08-02 | 2023-09-05 | 山东省计算中心(国家超级计算济南中心) | 基于相干邻近度与贝叶斯网络的隐私数据发布方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015026384A1 (en) * | 2013-08-19 | 2015-02-26 | Thomson Licensing | Method and apparatus for utility-aware privacy preserving mapping against inference attacks |
CN109543445A (zh) * | 2018-10-29 | 2019-03-29 | 复旦大学 | 一种基于条件概率分布的隐私保护数据发布方法 |
CN110378141A (zh) * | 2019-04-16 | 2019-10-25 | 江苏慧中数据科技有限公司 | 基于贝叶斯网络高维感知数据本地差分隐私保护发布方法 |
CN110730064A (zh) * | 2019-09-24 | 2020-01-24 | 徐州工业职业技术学院 | 一种群智感知网络中基于隐私保护的数据融合方法 |
CN111093191A (zh) * | 2019-12-11 | 2020-05-01 | 南京邮电大学 | 基于差分隐私的群智感知位置数据发布方法 |
-
2020
- 2020-06-21 CN CN202010570068.9A patent/CN111723402B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015026384A1 (en) * | 2013-08-19 | 2015-02-26 | Thomson Licensing | Method and apparatus for utility-aware privacy preserving mapping against inference attacks |
CN109543445A (zh) * | 2018-10-29 | 2019-03-29 | 复旦大学 | 一种基于条件概率分布的隐私保护数据发布方法 |
CN110378141A (zh) * | 2019-04-16 | 2019-10-25 | 江苏慧中数据科技有限公司 | 基于贝叶斯网络高维感知数据本地差分隐私保护发布方法 |
CN110730064A (zh) * | 2019-09-24 | 2020-01-24 | 徐州工业职业技术学院 | 一种群智感知网络中基于隐私保护的数据融合方法 |
CN111093191A (zh) * | 2019-12-11 | 2020-05-01 | 南京邮电大学 | 基于差分隐私的群智感知位置数据发布方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112423027A (zh) * | 2020-10-22 | 2021-02-26 | 武汉理工大学 | 一种基于差分隐私的移动流媒体边缘协作分发装置及方法 |
CN116702214A (zh) * | 2023-08-02 | 2023-09-05 | 山东省计算中心(国家超级计算济南中心) | 基于相干邻近度与贝叶斯网络的隐私数据发布方法及系统 |
CN116702214B (zh) * | 2023-08-02 | 2023-11-07 | 山东省计算中心(国家超级计算济南中心) | 基于相干邻近度与贝叶斯网络的隐私数据发布方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111723402B (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xu et al. | Asynchronous federated learning on heterogeneous devices: A survey | |
Lu et al. | Optimization of lightweight task offloading strategy for mobile edge computing based on deep reinforcement learning | |
Lu et al. | Optimization of task offloading strategy for mobile edge computing based on multi-agent deep reinforcement learning | |
CN113992676B (zh) | 端边云架构和完全信息下分层联邦学习的激励方法及系统 | |
Calinescu et al. | Optimal resource allocation in survey designs | |
CN111723402A (zh) | 一种基于ql学习策略面向mdu隐私数据保护的流量补偿激励方法 | |
Huang et al. | [Retracted] AFLPC: An Asynchronous Federated Learning Privacy‐Preserving Computing Model Applied to 5G‐V2X | |
Tang et al. | Online operations of automated electric taxi fleets: An advisor-student reinforcement learning framework | |
Konstantakopoulos et al. | Design, benchmarking and explainability analysis of a game-theoretic framework towards energy efficiency in smart infrastructure | |
Kong et al. | Refined peak shaving potential assessment and differentiated decision-making method for user load in virtual power plants | |
Chiu et al. | Renewable energy bidding strategies using multiagent Q-learning in double-sided auctions | |
CN112668877A (zh) | 结合联邦学习和强化学习的事物资源信息分配方法及系统 | |
CN104517232A (zh) | 一种挖掘纳税金额突增的关联纳税人群体的方法 | |
Li et al. | Entropy-based reinforcement learning for computation offloading service in software-defined multi-access edge computing | |
Qian et al. | Forecasting short-term taxi demand using boosting-GCRF | |
Cui et al. | Multi-Agent Reinforcement Learning Based Cooperative Multitype Task Offloading Strategy for Internet of Vehicles in B5G/6G Network | |
Xu et al. | Edge resource prediction and auction for distributed spatial crowdsourcing with differential privacy | |
CN113992692A (zh) | 端边云架构和不完全信息下分层联邦学习的方法及系统 | |
Zhang et al. | Dynamic User Recruitment in Edge-aided Mobile Crowdsensing | |
Yuan et al. | Retracted: Multi‐vehicle group‐aware data protection model based on differential privacy for autonomous sensor networks | |
Li et al. | Multi-sensor complex network data fusion under the condition of uncertainty of coupling occurrence probability | |
CN105740967A (zh) | 一种制造云服务执行时间的预测方法及预测装置 | |
CN116095721A (zh) | 一种融合感知通信的移动群智网络契约激励方法及系统 | |
Zhang et al. | Energy efficient federated learning in internet of vehicles: A game theoretic scheme | |
Wang et al. | Task recommendation method for fusion of multi-view social relationship learning and reasoning in the mobile crowd sensing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |