CN114881371A - 一种基于联邦学习的交通流量预测方法 - Google Patents
一种基于联邦学习的交通流量预测方法 Download PDFInfo
- Publication number
- CN114881371A CN114881371A CN202210701909.4A CN202210701909A CN114881371A CN 114881371 A CN114881371 A CN 114881371A CN 202210701909 A CN202210701909 A CN 202210701909A CN 114881371 A CN114881371 A CN 114881371A
- Authority
- CN
- China
- Prior art keywords
- data
- traffic flow
- client
- model
- central server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/50—Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Human Resources & Organizations (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Bioethics (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于联邦学习的交通流量预测方法,其特点是采用差分隐私技术对梯度信息加噪的方法,在客户端‑服务器架构的基础上构建基于长短期记忆网络LSTM的流量预测模型,具体包括:系统初始化、客户端对本地数据处理、局部计算、参数聚合和模型更新等步骤。本发明与现有技术相比具有通过将新兴的联邦学习系统与LSTM深度学习网络结合,打破了“数据孤岛”,通过一个不需要原始数据交换的局部训练模型,提供了可靠的数据隐私保护,在敌手已知大部分数据数据信息的情况下,针对单个用户进行数据保护,在数据集上关注了不同时间段流量值对预测结果的影响,实验结果表明,该算法能够达到理想的预测精准度。
Description
技术领域
本发明涉及智能交通技术领域,尤其涉及一种基于联邦学习的交通流量预测方法。
背景技术
在智能交通系统中,交通流量预测对于缓解交通拥堵、控制交通灯、提高交通运行效率、便利人们日常出行有着重要的作用。交通流量预测就是利用历史交通流量数据来预测未来交通流量的趋势,从而提供交通流量信息。交通流量预测问题被视为成功部署智能交通系统的关键要素。在集中式机器学习交通流量预测方案中,通常需要公共机构和私人公司之间共享数据。这种合作关系扩展了提供实时交通流量预测、交通管理、汽车共享和个人旅行应用的公司的服务。尽管如此,人们往往忽视共享的数据可能包含敏感的私人信息,这会导致潜在的隐私泄露。
在过去的几十年中,关于交通流量预测方法的工作很多,但是只有少数研究在交通流量预测中注意到了车辆隐私问题。假名技术和k-匿名技术是在交通流量预测中保护车辆隐私的最广泛使用的方法。但是由于假名技术的不可追溯性,无法将某些假名归于某一辆车,因此统计数据是不可靠的。另外,通过上述方法获得的数据集还是可能被攻击者利用并将数据链接回个人。这意味着这些方法不能有效地保护车辆的隐私,因为攻击者可能越来越多地了解车辆的更多背景知识。联邦学习的出现为人工智能系统提供了新思路,在联邦学习中,训练数据不离开本地,本地模型只通过上传参数或梯度到全局模型,就可以完成模型的训练,保护了数据隐私信息的安全。
现有技术的模型训练方式不能被很好的保护隐私,攻击者可以通过梯度或参数信息获取本地数据的隐私信息和模型窃取,极大的威胁了数据隐私安全,带来了安全隐患。
发明内容
本发明的目的是针对现有技术的不足而提供一种基于联邦学习的交通流量预测方法,采用差分隐私技术对梯度信息加噪的方法,构建的流量预测模型,能有效防止攻击方从整个模型更新梯度的过程中,不断生成与其他参与各方相同的数据,从而实现偷取数据,对本地数据安全造成威胁,极大的保护了数据隐私,流量预测模型基于长短期记忆网络LSTM,在数据集上关注了不同时间段流量值对预测结果的影响,能够达到理想的预测精准,本发明在客户端-服务器架构的基础上,采用联邦学习的训练方式,使得数据不离开本地也可以参与全局模型,在保护数据隐私的基础上增强全局模型的稳健性,以得到准确的预测结果,
方法简便,使用效果好,具有一定应用前景。
实现本发明目的的具体技术方案是:一种基于联邦学习的交通流量预测方法,其特点是采用差分隐私技术对梯度信息加噪的方法,基于长短期记忆网络LSTM构建流量预测模型,其模型构建和交通流量的预测具体包括以下步骤:
步骤A:系统初始化
中心服务器发送建模任务,寻求参与客户端,各客户端根据自身需求进入联合建模过程,并接收中心服务器发来的初始参数。
步骤B:客户端对本地数据进行预处理
客户端对本地交通流量数据进行统计,获得一连串交通流量时序数据,并且对交通流量数据进行预处理,得到训练数据集和测试数据集。
步骤C:局部计算
客户端初始化系统参数后,在本地将己方数据输入本地LSTM模型进行局部计算,计算完成后,将本地局部计算所得梯度脱敏后进行上传,以用于全局模型的一次更新。
步骤D:参数聚合
参与训练的所有客户端在完成一次迭代后,与中心服务器进行通信,将训练得到的梯度信息发送给服务端,中心服务器对这些计算值进行聚合操作。
步骤E:模型更新
中心服务器根据聚合后的结果对全局模型进行一次更新,并将更新后的模型返回给参与建模的数据持有方,数据持有方更新本地模型,并开启下一步局部计算,同时评估更新后的模型性能,当性能足够好时,训练终止,联合建模结束,将建立好的全局模型将会被保留在中心服务器端,以进行后续的预测或分类工作。
所述步骤A进一步包括:
步骤A1:中心服务器发送建模任务,寻求参与客户端;
步骤A2:客户端收到建模任务后,可选择参加或拒绝,自愿参加建模任务的客户端达成协议后,各客户端登录云,进入联合建模过程;
步骤A3:由中心服务器向各客户端发布初始参数,各客户端接收初始参数。
所述步骤B进一步包括:
步骤B1:参与联合建模的客户端的本地数据对使用不同传感器收集到的数据,需要对每个地区每个时间间隔的流量值进行统计,得到一连串交通流量时序数据;
步骤B2:将交通流量时序数据划分为训练数据集和测试数据集;
步骤B3:对交通流量数据进行归一化处理;
步骤B4:引入滑动窗口的概念,将原始数据集转化为符合深度学习处理的有监督学习的数据,即“输入向量-输出标签”格式,方便后期输入到模型中进行训练。
所述步骤C中的LSTM模型进一步包括:LSTM层的特征数为12,输出特征数为64,网络层数为2,所以整个网络为12-64-64。然后在两个LSTM层后添加了一个全连接层,全连接的输入为64,输出层为1。
所述步骤D进一步包括:
步骤D1:参与训练的所有客户端在完成一次迭代后,与中心服务器进行通信,中心服务器以概率q进行随机采样,选择部分客户端进行下一步操作;
步骤D2:中心服务器接受被选的客户端发来的梯度信息,进行参数聚合,并且在最后平均时加入噪声,通过差分隐私技术来保护数据隐私。
本发明与现有技术相比具有通过将新兴的联邦学习系统与LSTM深度学习网络结合,打破了“数据孤岛”,通过一个不需要原始数据交换的局部训练模型,提供了可靠的数据隐私保护。除此之外,为了保护梯度,通过差分隐私技术,在敌手已知大部分数据数据信息的情况下,针对单个用户进行数据保护。本发明提出的流量预测模型基于长短期记忆网络LSTM,在数据集上关注了不同时间段流量值对预测结果的影响,实验结果表明,该算法能够达到理想的预测精准度。
附图说明
图1为为本发明架构的系统图;
图2为本发明流程图;
图3为LSTM神经单元的结构图。
具体实施方式
结合以下具体实施例和附图,对本发明作进一步的详细说明。实施本发明的过程、条件、实验方法等,除以下专门提及的内容之外,均为本领域的普遍知识和公知常识,本发明没有特别限制内容。
实施例1
参阅图1,本发明在客户端-服务器架构的基础上,采用一个服务器端与N个客户端{Client1,Client2,……,Clientn}架构的交通流量预测系统,其中:服务器端就是发起联合建模的请求方,会给出初始的参数值并发送给客户端,而客户端就是参与联合建模的客户,每个客户端都对持有的数据进行本地模型训练,在训练过程中得到的梯度值{g1,g2,……,gn}发送给服务器端,服务器端收到梯度值后,采用联邦平均算法对梯度值进行求和平均,再将结果反馈给客户端进行下一次迭代更新。最终,当模型表现达到服务器最初的期望,训练终止。
参阅图2,本发明包括:利用差分隐私技术对本地车辆用户的数据隐私进行保护;对参与联邦训练的客户端进行本地建模;利用联邦平均算法进行模型聚合;具体包括以下步骤:
步骤A:系统初始化
中心服务器发送建模任务,寻求参与客户端,各客户端根据自身需求进入联合建模过程,并接收中心服务器发来的初始参数。
步骤B:客户端对本地数据进行预处理
客户端对本地交通流量数据进行统计,获得一连串交通流量时序数据,并且对交通流量数据进行预处理,得到训练数据集和测试数据集。
步骤C:局部计算
客户端初始化系统参数后,在本地将己方数据输入本地LSTM模型进行局部计算,计算完成后,将本地局部计算所得梯度脱敏后进行上传,以用于全局模型的一次更新。
步骤D:参数聚合
参与训练的所有客户端在完成一次迭代后,与中心服务器进行通信,将训练得到的梯度信息发送给服务端,中心服务器对这些计算值进行聚合操作。
步骤E:模型更新
中心服务器根据聚合后的结果对全局模型进行一次更新,并将更新后的模型返回给参与建模的数据持有方,数据持有方更新本地模型,并开启下一步局部计算,同时评估更新后的模型性能,当性能足够好时,训练终止,联合建模结束,建立好的全局模型将会被保留在中心服务器端,以进行后续的预测或分类工作。
所述步骤A进一步包括:
步骤A1:中心服务器发送建模任务,寻求参与客户端;
步骤A2:客户端收到建模任务后,可选择参加或拒绝,自愿参加建模任务的客户端达成协议后,各客户端登录云,进入联合建模过程;
步骤A3:由中心服务器向各客户端发布初始参数,各客户端接收初始参数。
所述步骤B进一步包括:
步骤B1:将交通流量时序数据划分为训练数据集和测试数据集;
在实施例中使用加州传输性能测量系统(PeMS)数据库收集的真实数据进行性能演示,PeMS数据库中的交通流量数据从39000个探测器实时采集,这些传感器跨越了加州的高速公路系统。本实施例选取7764个交通流量数据点作为训练数据集,选取4308个交通流量数据点作为测试数据集。
步骤B2:对交通流量数据进行归一化处理保证数据的范围在(-1,1)的区间之内,这样就将原始的交通流量数据集转化为LSTM可以处理的数据;
步骤B3:引入滑动窗口的概念,将原始数据集转化为符合深度学习处理的有监督学习的数据,即“输入向量-输出标签”格式,方便后期输入到模型中进行训练。
由于交通流量数据是时间序列数据,本发明定义滑动窗口大小为t,可以使用前t-1时刻的交通流量数据流作为LSTM的输入数据,将t时刻的交通流量数据作为输出标签来进行学习,以实现最终的预测。
所述步骤C中的LSTM模型进一步包括:LSTM层的特征数为12,输出特征数为64,网络层数为2,所以整个网络为12-64-64。然后在两个LSTM层后添加了一个全连接层,全连接的输入为64,输出层为1。
所述步骤D进一步包括:
步骤D1:参与训练的所有客户端在完成一次迭代后,与中心服务器进行通信,中心服务器以概率q进行随机采样,选择部分客户端进行下一步操作;
步骤D2:中心服务器接受被选的客户端发来的梯度信息,进行参数聚合,并且在最后平均时加入噪声,通过差分隐私技术来保护数据隐私。
本发明中所述的LSTM是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM引入了细胞状态,根据细胞的状态可以判断哪些状态可以保留下来,哪有状态应该被遗忘。因此,LSTM能够在更长的序列中有更好的表现。在RNN的基础上,LSTM引入了一个新的内部状态ct∈RD专门进行线性的循环信息传递,同时非线性地输出信息给隐藏层地外部状态ht∈RD。
所述LSTM网络引入门控机制来控制信息传递的路径,三个“门”分别为输入门it、遗忘门ft和输出门ot。这三个“门”的作用为:遗忘门ft控制上一个时刻的内部状态需要遗忘多少信息;输入门it控制当前时刻的候选状态有多少信息需要保存;输出门ot控制当前时刻的内部状态有多少信息需要输出给外部状态。当ft=0,it=1时,记忆单元将历史信息清空,并将候选状态向量写入。但此时记忆单元ct依然和上一时刻的历史信息相关。当ft=1,it=0时,记忆单元将复制上一时刻的内容,不写入新的信息。
参阅图3,LSTM单元由输入门、遗忘门、输出门和单元状态四个不同组件构成,其中xt、ht为t时刻的输入和输出,ht-1为t-1时刻LSTM单元的输出,ct-1为t-1时刻LSTM单元的记忆,ct为t时刻LSTM单元的状态值。在每个时刻t,LSTM的内部状态ct记录了到当前时刻为止的历史信息。所述LSTM网络的各单元计算分为以下几步进行:
1)LSTM中的记忆单元对上一个时刻记忆单元传来的数据信息进行处理,决定了遗忘的信息,遗忘门接受一个长期的记忆ct-1并决定要保留和遗忘ct-1的哪个部分,遗忘因子ft由下述(a)式计算:
ft=σ(Wf·[ht-1,xt]+bf) (a)。
其中,Wf和bf分别为t时刻LSTM单元的权重矩阵和偏置向量;σ(·)为sigmoid逻辑函数,其输出区间为(0,1)。
输入门通过计算出it值来控制当前的输入对接下来记忆单元的影响,所述it值由下述(b)式计算:
it=σ(Wi·[ht-1,xt]+bi) (b)。
其中,Wi和bi分别为t时刻LSTM单元的权重矩阵和偏置向量。
其中,Wc和bc分别为t时刻LSTM单元的权重矩阵和偏置向量;tanh(·)为tanh激活函数,其输出区间也为(0,1)。
新的记忆状态ct由下述(d)式计算:
其中,⊙为向量元素乘积。
输出门通过下述(e)式表示的sigmoid函数计算决定输出的部分ot:
ot=σ(Wo·[ht-1,xt]+bo) (e);
最后由下述(f)式计算得到ht为LSTM隐藏层的输出:
ht=ot⊙tanhct (f)。
其中,Wo和bo分别为t时刻LSTM单元的权重矩阵和偏置向量。
一般在深度网络参数学习时,参数初始化的值一般都比较小。但是在训练LSTM网络时,过小的值会使得遗忘门的值比较小。这意味着前一时刻的信息大部分都丢失了,这样网络很难捕捉到长距离的依赖信息。并且相邻时间间隔的梯度会非常小,这会导致梯度弥散问题。因此,遗忘的参数初始值一般都设得比较大,其偏置向量bf设为1或2。
所述步骤C中的LSTM模型进一步包括:LSTM层的特征数为12,输出特征数为64,网络层数为2,所以整个网络为12-64-64。然后在两个LSTM层后添加了一个全连接层,全连接的输入为64,输出层为1。
本发明在客户端-服务器架构的基础上,采用联邦学习的训练方式,打破了“数据孤岛”,通过一个不需要原始数据交换的局部训练模型,提供了可靠的数据隐私保护。为了解决联邦学习中存在的梯度泄露问题,本发明使用差分隐私技术对梯度信息加噪,防止攻击方从整个模型更新梯度的过程中,不断生成与其他参与各方相同的数据,从而导致数据泄露,对本地数据安全造成威胁。本发明提出的流量预测模型基于长短期记忆网络LSTM,在数据集上关注了不同时间段流量值对预测结果的影响,实验结果表明,该算法能够达到理想的预测精准度。
以上只是对本发明作进一步的说明,并非用以限制本专利,凡为本发明等效实施,均应包含于本专利的权利要求范围之内。
Claims (5)
1.一种基于联邦学习的交通流量预测方法,其特征在于采用差分隐私技术对梯度信息加噪的方法,基于长短期记忆网络LSTM构建流量预测模型,其模型构建和交通流量的预测具体包括以下步骤:
步骤A:系统初始化
中心服务器发送建模任务,寻求参与客户端,各客户端根据自身需求进入联合建模过程,并接收中心服务器发来的初始参数;
步骤B:客户端对本地数据进行预处理
客户端对本地交通流量数据进行统计,获得一连串交通流量时序数据,将其划分为训练数据集和测试数据集;
步骤C:局部计算
客户端初始化系统参数后,在本地将己方数据输入本地LSTM模型进行局部计算,并将本地局部计算所得梯度脱敏后上传,以用于全局模型的一次更新;
步骤D:参数聚合
参与训练的所有客户端在完成一次迭代后与中心服务器进行通信,并将训练得到的梯度信息发送给服务端,中心服务器对这些计算值进行聚合操作;
步骤E:模型更新
中心服务器根据聚合后的结果对全局模型进行一次更新,并将更新后的模型返回给参与建模的数据持有方更新本地模型,开启下一步局部计算,同时评估更新后的模型性能,当性能足够好时,训练终止,结束联合建模,并将建立好的全局模型保存在中心服务器端,作为流量预测模型用于进行交通流量的预测或分类工作。
2.根据权利要求1所述的基于联邦学习的交通流量预测的方案,其特征在于所述步骤A具体包括下述步骤:
步骤A1:中心服务器发送建模任务,寻求参与客户端;
步骤A2:客户端收到建模任务后,可选择参加或拒绝,选择参加建模任务的客户端达成协议后,各客户端登录云,进入联合建模过程;
步骤A3:由中心服务器向各客户端发布初始参数,各客户端接收初始参数。
3.根据权利要求1所述的基于联邦学习的交通流量预测的方案,其特征在于所述步骤B具体包括下述步骤:
步骤B1:参与联合建模的客户端的本地数据对使用不同传感器收集到的数据,并对每个地区每个时间间隔的流量值进行统计,得到一连串交通流量时序数据;
步骤B2:将交通流量时序数据划分为训练数据集和测试数据集;
步骤B3:对交通流量数据进行归一化处理;
步骤B4:引入滑动窗口的概念,将原始数据集转化为符合深度学习处理的有监督学习的数据,即“输入向量-输出标签”格式,便于后期输入到模型中进行训练。
4.根据权利要求1所述的基于联邦学习的交通流量预测的方案,其特征在于所述步骤C中的 LSTM 模型包括:LSTM层的特征数为12、输出特征数为64、网络层数为2,即整个网络为12-64-64,然后在两个LSTM层后添加一个输入为64,输出层为1的全连接层。
5.根据权利要求1所述的基于联邦学习的交通流量预测的方案,其特征在于所述步骤D具体包括下述步骤:
步骤D1:参与训练的所有客户端在完成一次迭代后与中心服务器进行通信,中心服务器以概率q进行随机采样,选择部分客户端进行下一步操作;
步骤D2:中心服务器接受被选的客户端发来的梯度信息进行参数聚合,并在最后平均时加入噪声,通过差分隐私技术来保护数据隐私。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210701909.4A CN114881371A (zh) | 2022-06-21 | 2022-06-21 | 一种基于联邦学习的交通流量预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210701909.4A CN114881371A (zh) | 2022-06-21 | 2022-06-21 | 一种基于联邦学习的交通流量预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114881371A true CN114881371A (zh) | 2022-08-09 |
Family
ID=82682398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210701909.4A Pending CN114881371A (zh) | 2022-06-21 | 2022-06-21 | 一种基于联邦学习的交通流量预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114881371A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115828302A (zh) * | 2022-12-20 | 2023-03-21 | 华北电力大学 | 一种基于可信隐私计算的微网并网控制隐私保护方法 |
CN116151495A (zh) * | 2023-04-24 | 2023-05-23 | 北京智芯微电子科技有限公司 | 基于联邦学习的用电预测方法及系统、计算机设备 |
-
2022
- 2022-06-21 CN CN202210701909.4A patent/CN114881371A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115828302A (zh) * | 2022-12-20 | 2023-03-21 | 华北电力大学 | 一种基于可信隐私计算的微网并网控制隐私保护方法 |
CN116151495A (zh) * | 2023-04-24 | 2023-05-23 | 北京智芯微电子科技有限公司 | 基于联邦学习的用电预测方法及系统、计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wadsworth et al. | Achieving fairness through adversarial learning: an application to recidivism prediction | |
Hassija et al. | Traffic jam probability estimation based on blockchain and deep neural networks | |
CN114881371A (zh) | 一种基于联邦学习的交通流量预测方法 | |
Chen et al. | TrajVAE: A Variational AutoEncoder model for trajectory generation | |
CN112733967B (zh) | 联邦学习的模型训练方法、装置、设备及存储介质 | |
Wang et al. | Discriminative feature alignment: Improving transferability of unsupervised domain adaptation by Gaussian-guided latent alignment | |
Alladi et al. | DeepADV: A deep neural network framework for anomaly detection in VANETs | |
Wang et al. | Deep learning-enabled sparse industrial crowdsensing and prediction | |
CN113128701A (zh) | 面向样本稀疏性的联邦学习方法及系统 | |
WO2022048143A1 (zh) | 一种基于差分隐私的联邦声纹识别方法 | |
Wu et al. | A bayesian learning network for traffic speed forecasting with uncertainty quantification | |
Li et al. | Discovery of causal time intervals | |
US20220222578A1 (en) | Method of training local model of federated learning framework by implementing classification of training data | |
Liu et al. | Inferring network structure and estimating dynamical process from binary-state data via logistic regression | |
Mohammed | Quantum cryptography in Convolution neural network approach in Smart cities | |
Mao et al. | A novel user membership leakage attack in collaborative deep learning | |
Gurung et al. | Decentralized quantum federated learning for metaverse: Analysis, design and implementation | |
Sai et al. | Machine un-learning: an overview of techniques, applications, and future directions | |
Racherla et al. | Deep-IDS: A Real-Time Intrusion Detector for IoT Nodes Using Deep Learning | |
CN112085051A (zh) | 基于加权投票的图像分类方法、系统及电子设备 | |
CN114401135B (zh) | 基于LSTM-Attention用户和实体行为分析技术的内部威胁检测方法 | |
CN116645805A (zh) | 一种车队路径匹配和可信度评估方法、系统、设备及终端 | |
Liu et al. | Unsupervised dynamic fuzzy cognitive map | |
Chu et al. | Multi-agent Reinforcement Learning-based Passenger Spoofing Attack on Mobility-as-a-Service | |
Bharadwaj et al. | Reliable human authentication using AI-based multibiometric image sensor fusion: Assessment of performance in information security |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |