CN115329032B - 基于联邦字典学习数据传输方法、装置、设备及存储介质 - Google Patents

基于联邦字典学习数据传输方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN115329032B
CN115329032B CN202211256270.XA CN202211256270A CN115329032B CN 115329032 B CN115329032 B CN 115329032B CN 202211256270 A CN202211256270 A CN 202211256270A CN 115329032 B CN115329032 B CN 115329032B
Authority
CN
China
Prior art keywords
data
dictionary
local
terminal device
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211256270.XA
Other languages
English (en)
Other versions
CN115329032A (zh
Inventor
王滨
周少鹏
王旭
毕志城
张峰
赵海涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN202211256270.XA priority Critical patent/CN115329032B/zh
Publication of CN115329032A publication Critical patent/CN115329032A/zh
Application granted granted Critical
Publication of CN115329032B publication Critical patent/CN115329032B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioethics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computer Security & Cryptography (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供一种基于联邦字典学习数据传输方法、装置、设备及存储介质,涉及信息安全技术领域,有效防止联邦学习中数据隐私的泄露。该方法包括:数据需求设备向第一终端设备发送数据请求;数据请求用于请求第一终端设备的本地数据;第一终端设备向数据需求设备发送本地数据在本地字典中对应的字典索引数据;本地字典用于表征第一终端设备的本地数据经字典学习后的训练数据。数据需求设备基于字典索引数据,从第一字典中获取训练数据;训练数据为本地数据经字典学习后的数据。本申请可用于联邦学习的过程中。

Description

基于联邦字典学习数据传输方法、装置、设备及存储介质
技术领域
本申请涉及信息安全技术领域,尤其涉及一种基于联邦字典学习数据传输方法、装置、设备及存储介质。
背景技术
随着信息通信、人工智能、大数据、云计算、边缘计算的飞速发展和深度应用,物联网发展势不可挡,已逐渐渗透到社会生活的方方面面。物联网终端的数据存在规模庞大、时空离散、多源异构的特点。传统的云计算集中式数据处理的方式难以处理大量的物联网数据,且存储数据隐私泄露的风险。
联邦学习是旨在物联网场景下各终端不共享各自本地数据的情况下,通过向云端传输模型参数的方式,协同训练机器学习模型,以减小数据处理过程中数据量的传输。但是,目前联邦学习中,模型参数的传递,仍然可能间接导致数据隐私的泄露。
发明内容
本申请提供一种基于联邦字典学习数据传输方法、装置、设备及存储介质,可以有效防止联邦学习中数据隐私的泄漏。
第一方面,本申请提供一种基于联邦字典学习数据传输方法,该方法包括:第一终端设备接收数据需求设备发送的数据请求;数据请求用于请求第一终端设备的本地数据;第一终端设备向数据需求设备发送本地数据在本地字典中对应的字典索引数据;本地字典用于表征第一终端设备的本地数据经字典学习后的训练数据。
一种可能的实现方式中,数据需求设备为第二终端设备;上述方法还包括:第一终端设备向第二终端设备发送本地字典。
另一种可能的实现方式中,上述方法还包括:第一终端设备对所有本地数据进行字典学习,得到本地稀疏字典;本地稀疏字典用于表示本地数据的特征;第一终端设备向中心化服务器发送本地稀疏字典;第一终端设备接收中心化服务器发送的本地字典,本地字典为中心化服务器对其连接的所有终端设备的本地稀疏字典进行全局字典学习得到的全局字典中,与第一终端设备对应的部分。
又一种可能的实现方式中,字典索引数据为稀疏编码。
第二方面,本申请提供一种基于联邦字典学习数据传输方法,该方法包括:数据需求设备向第一终端设备发送数据请求;数据请求用于请求第一终端设备的本地数据;数据需求设备接收第一终端设备发送的本地数据在第一字典中对应的字典索引数据;数据需求设备基于字典索引数据,从第一字典中获取训练数据;训练数据为本地数据经字典学习后的数据。
一种可能的实现方式中,数据需求设备为第二终端设备;第一字典为第一终端设备的本地字典;本地字典用于表征第一终端设备的本地数据经字典学习后的训练数据;在数据需求设备接收第一终端设备发送的本地数据在第一字典中对应的字典索引数据之前,方法还包括:第二终端设备接收第一终端设备发送的本地字典。
另一种可能的实现方式中,数据需求设备是中心化服务器,第一字典为全局字典;全局字典为中心化服务器对其连接的所有终端设备的本地数据进行全局字典学习得到。
又一种可能的实现方式中,上述方法还包括:中心化服务器获取与其连接的所有终端设备发送的本地稀疏字典;一个终端设备发送的本地稀疏字典用于表示一个终端设备的本地数据的特征;中心化服务器使用每个终端设备的影响因子,分别对每个终端设备的本地稀疏字典进行修正后,联合所有修正后的本地稀疏字典,得到全局字典;一个终端设备的影响因子为该终端设备的数据量与所有终端设备的数据总量的比值;中心化服务器向所有终端设备分别发送本地字典;向一个终端设备发送的本地字典,为全局字典中与该一个终端设备对应的部分。
本申请提供的基于联邦字典学习数据传输方法,在数据需求设备需要第一终端设备的本地数据时,第一终端设备向数据需求设备发送字典索引数据,数据需求设备可以基于字典索引数据获取本地数据经字典学习后的训练数据。本方案提供的数据传输方法,是对本地数据进行字典学习,过滤本地数据中隐私信息得到训练数据,以便于在传输数据时,仅传输用于查询训练数据的字典索引数据,以防止数据隐私泄露的问题。
第三方面,本申请提供一种基于联邦字典学习数据传输装置,应用于第一终端设备,该装置包括:接收模块和发送模块;接收模块用于,接收数据需求设备发送的数据请求;数据请求用于请求第一终端设备的本地数据;发送模块用于,向数据需求设备发送本地数据在本地字典中对应的字典索引数据;本地字典用于表征第一终端设备的本地数据经字典学习后的训练数据。
一种可能的实现方式中,数据需求设备为第二终端设备;发送模块还用于,向第二终端设备发送本地字典。
另一种可能的实现方式中,上述装置还包括:处理模块;处理模块用于,对所有本地数据进行字典学习,得到本地稀疏字典;本地稀疏字典用于表示本地数据的特征;发送模块还用于,向中心化服务器发送本地稀疏字典;接收模块还用于,接收中心化服务器发送的本地字典,本地字典为中心化服务器对其连接的所有终端设备的本地稀疏字典进行全局字典学习得到的全局字典中,与第一终端设备对应的部分。
又一种可能的实现方式中,字典索引数据为稀疏编码。
第四方面,本申请提供一种基于联邦字典学习数据传输装置,应用于数据需求设备,该装置包括:发送模块、接收模块和获取模块;发送模块用于,向第一终端设备发送数据请求;数据请求用于请求第一终端设备的本地数据;接收模块用于,接收第一终端设备发送的本地数据在第一字典中对应的字典索引数据;获取模块用于,基于字典索引数据,从第一字典中获取训练数据;训练数据为本地数据经字典学习后的数据。
一种可能的实现方式中,数据需求设备为第二终端设备;第一字典为第一终端设备的本地字典;本地字典用于表征第一终端设备的本地数据经字典学习后的训练数据;接收模块还用于,接收第一终端设备发送的本地字典。
另一种可能的实现方式中,数据需求设备是中心化服务器,第一字典为全局字典;全局字典为中心化服务器对其连接的所有终端设备的本地数据进行全局字典学习得到。
又一种可能的实现方式中,上述装置还包括:处理模块;获取模块还用于,获取与其连接的所有终端设备发送的本地稀疏字典;一个终端设备发送的本地稀疏字典用于表示一个终端设备的本地数据的特征;处理模块用于,使用每个终端设备的影响因子,分别对每个终端设备的本地稀疏字典进行修正后,联合所有修正后的本地稀疏字典,得到全局字典;一个终端设备的影响因子为该终端设备的数据量与所有终端设备的数据总量的比值;发送模块还用于,向所有终端设备分别发送本地字典;向一个终端设备发送的本地字典,为全局字典中与一个终端设备对应的部分。
第五方面,本申请提供一种电子设备,该电子设备包括:处理器和存储器;存储器存储有处理器可执行的指令;处理器被配置为执行指令时,使得电子设备实现上述第一方面的方法。
第六方面,本申请提供一种电子设备,该电子设备包括:处理器和存储器;存储器存储有处理器可执行的指令;处理器被配置为执行指令时,使得电子设备实现上述第二方面的方法。
第七方面,本申请提供一种计算机可读存储介质,该计算机可读存储介质包括:计算机软件指令;当计算机软件指令在电子设备中运行时,使得电子设备实现上述第一方面的方法。
第八方面,本申请提供一种计算机可读存储介质,该计算机可读存储介质包括:计算机软件指令;当计算机软件指令在电子设备中运行时,使得电子设备实现上述第二方面的方法。
第九方面,本申请提供一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述第一方面描述的相关方法的步骤,以实现上述第一方面的方法。
第十方面,本申请提供一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述第一方面描述的相关方法的步骤,以实现上述第二方面的方法。
上述第三方面至第十方面的有益效果可以参考第一方面和第二方面的对应描述,不再赘述。
附图说明
图1为本申请提供的一种云计算集中式数据处理的流程示意图;
图2为本申请提供的一种传统联邦学习的流程示意图;
图3为本申请提供的一种基于联邦字典学习数据传输方法的应用环境示意图;
图4为本申请提供的一种基于联邦字典学习数据传输方法的流程示意图;
图5为本申请提供的一种字典构建方法的流程示意图;
图6为本申请提供的一种重复迭代全局字典的流程示意图;
图7为本申请提供的一种基于联邦字典学习数据传输装置的组成示意图;
图8为本申请提供的另一种基于联邦字典学习数据传输装置的组成示意图;
图9为本申请提供的一种电子设备的组成示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例中,“示例性地”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性地”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性地”或者“例如”等词旨在以具体方式呈现相关概念。
为了便于清楚描述本申请实施例的技术方案,在本申请的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分,本领域技术人员可以理解“第一”、“第二”等字样并不是在对数量和执行次序进行限定。
如背景技术的描述,传统的云计算集中式数据处理的方式,如图1所示,各个终端设备将各自的本地数据上传值云端(云服务器或者中心化服务器),云端进行共享模型的训练以及更新。终端设备需要使用模型时,可以向云端发送服务请求,以得到新模型的返回结果。这种方式难以应用于物联网的大数据量的场景,并且训练模型需要终端设备上传的本地数据中,可能包括有用户隐私信息,集中上传至云端存储用户隐私泄露的风险。因而存在“数据孤岛”的问题。
为解决上述“数据孤岛”的问题,相关技术人员提出联邦学习。联邦学习是旨在让物联网场景下所有终端设备在不共享各自本地数据的情况下,协同训练机器学习模型。如图2所示,联邦学习的特点是数据不出本地,所有模型的训练都是在终端设备本地进行。本地模型训练完毕后将得到的模型参数或者下降梯度,经过加密上传至云端,云端模型接收到所有上传的加密后的模型参数或者下降梯度后,结合所有的参数值进行统一的聚合,比如通过加权平均得到新的模型参数或者下降梯度,然后将新的结果再重新下发到本地,本地更新得到一个全新的模型。但是,上述联邦学习传输模型参数或者下降梯度的方式,仍然可能间接导致数据隐私的泄露。
基于此,本申请实施例提供一种基于联邦字典学习数据传输方法,该方法通过字典学习的方式对本地数据进行训练,传输时仅仅传输字典索引数据,可以有效防止数据隐私的泄漏。
本申请提供的基于联邦字典学习数据传输方法,可以应用于如图3所示的应用环境中。如图3所示,该应用环境可以包括:中心化服务器301和多个终端设备302。中心化服务器301与多个终端设备302连接。其中,中心化服务器301可以应用于服务器中。其中,这里所说的服务器可以是多个服务器组成的服务器集群、或者单个服务器、又或者计算机。中心化服务器301具体可以是服务器中的处理器或处理芯片等。本申请实施例对上述服务器的具体设备形态不作限制。图3中以中心化服务器301应用于单个服务器为例示出。
上述终端设备302可以应用于手机终端、服务器、计算机等电子设备中。本申请实施例对终端设备302的具体设备形态也不作限制,图3中以终端设备302为手机终端为例示出。另外,本申请实施例对终端设备302的数量也不作具体限制,本申请实施例以四个手机终端为例示出。
需要说明的是,上述终端设备中嵌入有执行本方案的轻量化客户端,后续的终端设备执行的例如发送数据请求的过程,或者执行字典学习的过程,具体为通过该轻量化客户端来执行实现的。该轻量化客户端可以采用java或者C++等编程语言进行编写设计,以安装在需要执行本方案的终端设备上。为便于描述,下文均直接描述为终端设备直接执行消息的接收或者发送,以及模型训练的过程。
作为一种示例,上述应用环境可以是水位检测红外只能终端数据传输场景,在不同的监测点设置终端设备,每个终端设备的本地数据,即终端设备对水位检测的原始数据,例如液位、温度数据。另外,本地数据还可以包括终端设备的信息,例如设备标识、设备地址等。任意终端设备可以通过采用本申请提供的数据传输方法,获取水位监测原始数据,以训练水位监测数据传输字典编截码模型。该模型可以针对水位监测原始数据,在终端侧进行数据字典化编码,实现数据传输过程中的隐私保护,在使用侧(中心化服务器、数据需求方终端)进行字典化数据解码,得到可用数据用于数据统计分析。
在另一种示例中,上述应用环境可以是工业金属电解过程监控数据传输场景。工业金属电解(例如工业铝电解)是一个非常复杂的工业过程,其中大量的过程参数由传感器检测,数据量已经到了太字节(terabyte,TB)量级,并且数据具有高度非线性的特点。工业金属电解需要保证工业环境中没有强干扰和大时滞,因此当前数据传输基本采用明文传输,若使用传统加密传输的方案其性能开销大,无法保证数据传输效率,而且会导致工业金属电解质量与产量下降。最主要的是,工业生产过程产生的数据涉及商业机密,一旦泄露将造成重大财产损失,所以数据安全传输需求同样重要。因此,该场景下终端设备侧(即传感器侧)可以通过采用本申请提供的数据传输方法,传输本地数据(例如电解质水平、冰晶石比例、电池电压电流等工业金属电解原始数据)。任意终端设备可以通过采用本申请提供的数据传输方法,获取工业金属电解原始数据,以训练工业金属电解过程监控数据传输字典编截码模型。该模型可以针对工业金属电解过程监控原始数据,在终端侧进行数据字典化编码,实现数据传输过程中的隐私保护,在使用侧(中心化服务器、数据需求方终端)进行字典化数据解码,得到可用数据用于数据统计分析。
图4为本申请实施例提供的一种基于联邦字典学习数据传输方法的流程示意图。示例性的,本申请提供的基于联邦字典学习数据传输方法,可以应用于图3所示的应用环境中。
如图4所示,本申请提供的基于联邦字典学习数据传输方法具体可以包括以下步骤:
S401、数据需求设备向第一终端设备发送数据请求。
其中,数据请求用于请求第一终端设备的本地数据。
在一些实施例中,数据需求设备在需要使用第一终端设备的本地数据进行机器学习模型训练时,可以向第一终端设备发送数据请求,以请求第一终端设备的本地数据。其中,第一终端设备可以为上述图3中任一终端设备。
S402、第一终端设备向数据需求设备发送本地数据在本地字典中对应的字典索引数据。
其中,本地数据可以为第一终端设备中存储的原始业务数据(例如第一终端设备自身产生的业务数据)。本地字典用于表征第一终端设备的本地数据经字典学习后的训练数据。
由于本地数据是原始业务数据,可能包括有用户隐私的信息。字典学习,是总结出某个知识点的关键信息。结合实际生活来说,字典是前辈们学习总结的精华,当我们需要学习新的知识点时,不需要学习这个知识点所有的内容,只需要参考前辈们总结的精华,即字典,从字典中查询关键信息即可达到学习这个知识点的需求。字典学习即为上述思想的数字实现过程,将本地数据中用于机器模型训练的关键特征提取出来,而关键特征中隐私部分被切割,可能仅保留隐私部分的个别字符,因此使用字典学习对本地数据进行处理的方式,仅仅保留本地数据的关键特征,可以在一定程度上保证数据泄露不被泄露。因此,本方案采用字典学习的方式,对本地数据进行降维,得到用于表征本地数据经字典学习后的训练数据的本地字典。
在一些实施例中,第一终端设备接收数据需求设备发送的数据请求后,响应于该请求,第一终端设备可以向数据需求设备发送本地数据在本地字典中对应的字典索引数据,该字典索引数据可以用于后续获取第一终端设备的训练数据。本地字典和字典索引数据获取的具体过程参见下述字典构建流程,在此不作具体赘述。
在另一些实施例中,在数据需求设备为第二终端设备的情况下,第一终端设备还向第二终端设备发送第一终端设备的本地字典,用于第二终端设备后续从该本地字典中获取第一终端设备的训练数据。其中,第二终端设备可以为图3中任一不同于第一终端设备的终端设备,也可以为其他的,在图3所示的应用环境之外的终端设备(未在图3中示出),本申请实施例对此不作具体限制。
S403、数据需求设备基于字典索引数据,从第一字典中获取训练数据。
在一些实施例中,数据需求设备在接收字典索引数据后,可以基于该字典索引数据,从第一字典中获取训练数据。其中,该第一字典用于表征数据需求设备需要使用的训练数据。
示例性的,在数据需求设备为第二终端设备的情况下,上述第一字典为第一终端设备的本地字典。第二终端设备还接收来自第一终端设备发送的本地字典。进一步的,第二终端设备基于字典索引数据,从第一终端设备的本地字典中获取第一终端设备的训练数据。具体的,本地字典为矩阵,字典索引数据也为矩阵,使用字典索引数据从本地字典中获取训练数据的过程为本地字典与字典索引数据进行矩阵相乘,得到代表训练数据的矩阵,以进行后续的机器模型训练流程。
需要说明的是,在第二终端设备首次向第一终端设备请求数据时,第一终端设备向第二终端设备发送自身的本地字典,以使得第二终端设备存储第一终端设备的本地字典。第二终端设备在后续请求使用第一终端设备的本地数据时,第一终端设备可以根据数据请求,仅向第二终端设备发送用于本次数据请求对应的字典索引数据,以使得第二终端设备基于该字典索引数据从自身存储的第一终端设备的本地字典中,查询获取相应的训练数据进行机器模型训练。这种仅传输字典索引数据的方式,可以有效地节约网络带宽资源的占用。
示例性的,在数据需求设备为中心化服务器情况下,上述第一字典为事先存储在中心化服务器中的全局字典。该全局字典为中心化服务器对其连接的所有终端设备的本地数据进行全局字典学习得到。中心化服务器在接收到第一终端设备发送的字典索引数据后,可以基于该字典索引数据,从全局字典中获取第一终端设备的训练数据。具体的,从全局字典中获取数据的过程也为上述矩阵相乘的方式,使用全局字典与来自第一终端设备的字典索引数据相乘,即可得到第一终端设备的训练数据。
需要说明的是,上述示例以中心化服务器需求第一终端设备的本地数据为例进行说明。该第一终端设备可以是一个或多个,例如中心化服务器需求与其连接的所有终端设备的本地数据,则可以针对所有终端设备中每一个终端设备,均执行上述S401-S403,以获得所有终端设备发送的字典索引数据。针对每个字典索引数据,从全局字典中依次获取全部终端设备的训练数据以进行机器学习模型训练。
上述S401-S403是对本申请实施例提供的基于联邦字典学习数据传输方法进行的说明。可以理解,上述数据传输方法的实现是建立在第一终端设备中事先存储有本地字典,中心化服务器事先存储有全局字典的前提下。通过字典的传输和查询,在保证数据的私密性和安全性的前提下实现各个设备间数据的交互。
以下将结合具体实施例详细阐述本申请实施例提供的本地字典和全局字典的构建方法,如图5所示,具体包括如下S501-S504。该构建方法可以在图4所示的流程之前执行,也可以周期性的自动执行。
S501、第一终端设备对所有本地数据进行字典学习,得到本地稀疏字典。
其中,本地稀疏字典用于表示本地数据的特征。
在一些实施例中,第一终端设备可以对所有本地数据进行字典学习,以进行本地数据的特征提取,得到本地稀疏字典。
需要说明的是,第一终端设备是任一终端设备。在本地字典和全局字典构建的过程中,与中心化服务器连接的每个终端设备,均作为第一终端设备执行S501。
具体的字典学习过程如下:
如前所述,字典学习也可称之为稀疏编码,是一种以稀疏方式从原始数据(即上述本地数据)中提取特征的强大方法。从矩阵分解角度,看字典学习过程。给定原始数据的样本数据集Y,Y的每一列表示一个样本,字典学习的目标是把Y矩阵分解成D、X矩阵,可表示为Y≈D·X,D即为字典,D的每一列称为为原子。X称之为编码矢量、特征、系数矩阵、稀疏编码等,即为前述实施例中的字典索引数据。上述公式要满足约束条件,X尽可能稀疏。所谓稀疏意思是X在尽可能简单的情况下,尽可能还原全部的原始数据的特征。一般来说,字典学习的任务就是学习一个过完备的字典,即原始数据只需字典中的几个原子就能很好地表示出来。
具体采用K-SVD 字典学习方法进行本地稀疏字典训练。K-SVD是从K-means 方法中概况出来的,K-means方法使用迭代和交替学习方法来优化当前字典中数据的表示,并更新字典的原子以更好地适应数据。在具体训练过程中,字典的原子的更新与稀疏编码的更新可以相结合,从而使得数据加速收敛,得到过完备字典。字典更新阶段和稀疏编码阶段交替进行,直到字典D和稀疏编码X都不再发生变化,即达到收敛。
稀疏编码阶段:1、随机初始化字典D。从样本数据集Y中随机挑选K个样本,作为D的原子,并且初始化稀疏编码X为0矩阵。2、固定字典,求取每个样本的稀疏编码。编码过程采用如下公式:
Figure 779812DEST_PATH_IMAGE001
Figure 978843DEST_PATH_IMAGE002
其中,ε是重构误差所允许的最大值,
Figure 289739DEST_PATH_IMAGE003
表示零阶范数,它表示向量中不为0的数 字的个数。
字典更新阶段:在字典更新阶段,稀疏编码X是固定的,目标是更新字典D。然而,不可能一次更新整个字典,因此在此过程中,一次只更新字典D的一个原子(即D的一列)。具体的,更新字典D的第k个原子的公式如下所示:
Figure 950527DEST_PATH_IMAGE004
其中,Dj表示字典D中第j列原子,
Figure 30479DEST_PATH_IMAGE005
表示稀疏编码X中第k行向量,Ek为误差矩阵。
每个终端设备均重复进行上述稀疏编码阶段和字典更新阶段,直到字典D和稀疏编码X都不再发生变化,得到各自的本地稀疏字典。
需要说明的是,传统隐私数据传输采用的是加密传输方法,性能开销较大。与此同时传统的联邦学习是在各终端设备上进行模型训练,得到模型参数进行加密传输至中心化服务器进行加权平均,再传输回各终端设备进行模型更新。这种方案同样需要终端设备对模型参数进行加密解密,使得终端设备的性能开销较大。而本申请实施例中采用字典学习的方式,传输的是字典索引数据,不需要加密解密的过程,因而可以节省加解密的性能开销。而且,字典模型较为简洁,对终端设备的性能门槛要求较低,适用于海量异构大规模物联网的场景。
S502、第一终端设备向中心化服务器发送本地稀疏字典。
在一些实施例中,第一终端设备在得到本地稀疏字典后,可以向中心化服务器发送本地稀疏字典,以后续使得中心化服务器对本地稀疏字典进行整合,进一步提高字典表示的准确性。
针对与中心化服务器连接的所有终端设备,均可以执行上述S501-S502,以使得中心化服务器可以获取与其连接的所有终端设备发送的本地稀疏字典。其中,一个终端设备发送的本地稀疏字典用于表示一个终端设备的本地数据的特征。
S503、中心化服务器使用每个终端设备的影响因子,分别对每个终端设备的本地稀疏字典进行修正后,联合所有修正后的本地稀疏字典,得到全局字典。
中心化服务器在获取与其连接的所有终端设备发送的本地稀疏字典,可以联合所有的本地稀疏字典,以得到表征所有终端设备的本地数据的全局字典。
在一些实施例中,中心化服务器可以使用每个终端设备的影响因子,分别对每个终端设备的本地稀疏字典进行修正后,联合所有修正后的本地稀疏字典,得到全局字典。其中,一个终端设备的影响因子为该终端设备的数据量与所有终端设备的数据总量的比值。需要说明的是,每个终端设备可以周期性的自主上报自身的数据量至中心化服务器,中心化服务器会统计每个终端设备的数据量以及所有终端设备的数据总量并存储。
上述修正联合的方法可以称为联合字典平均策略,即中心化服务器可以基于所有的本地稀疏字典,采用联合词典平均策略,将所有终端设备的本地稀疏字典整合为全局字典。
示例性的,联合词典平均策略的表达式如下:
Figure 384100DEST_PATH_IMAGE006
其中,
Figure 177699DEST_PATH_IMAGE007
表示全局字典,
Figure 907757DEST_PATH_IMAGE008
表示第i个终端设备的本地稀疏字典。αi表示第i 个终端设备的本地节点字典的影响因子,其计算公式为
Figure 842215DEST_PATH_IMAGE009
,i=1,2…N,其中
Figure 366737DEST_PATH_IMAGE010
为第i个终 端设备的本地数据数量,Q为所有终端设备的数据总量,表示为
Figure 386646DEST_PATH_IMAGE011
Figure 389237DEST_PATH_IMAGE012
表示第i个 终端设备的本地稀疏字典对应的置换矩阵。在字典学习的过程中,存在数据中词组的顺序 不同的情况。例如这样一对数据,“咳嗽-发热-感冒”与“发热-咳嗽-感冒”,实质上是表示相 同意思的一对数据。但是由于数据中词组顺序不同,导致两组数据的矩阵表示存在不同,在 字典学习的过程中徒增计算量,而且导致训练后的字典不够稀疏。因此,上述全局字典的计 算公式中通过联合各终端设备的本地稀疏字典,增加置换矩阵的方式对这些重复性的数据 进行处理,以获得更为完备的,更能简洁准确表示关键知识点的字典。
另外,上述公式中t表示迭代次数。在联合得到全局字典的过程中,中心化服务器 可以指定迭代次数,重复迭代全局字典。具体流程如图6所示,每个节点(即上述终端设备) 通过本地字典学习得到本地稀疏字典。进一步的,对齐所有的本地稀疏字典计算置换矩阵, 采用上述联合词典平均策略的表达式联合字典得到第t次迭代的全局字典
Figure 928934DEST_PATH_IMAGE007
。判断t是 否等于预设的迭代次数M。若满足,则生成M次迭代后的最终全局字典,可表示为
Figure 889937DEST_PATH_IMAGE013
。若不 满足,则将全局字典
Figure 397142DEST_PATH_IMAGE007
按节点的顺序进行按列分割后,重复执行计算置换矩阵和联合字 典的操作,以重复进行迭代的过程。最终全局字典可以是经过一次迭代获取,也可以是经过 多次迭代获取,迭代的次数越多,得到的全局字典的模型越好。迭代的次数可以根据实际场 景应用而定,本申请实施例对具体迭代的次数不作限制。
S504、中心化服务器向与其连接的所有终端设备分别发送本地字典。
其中,向一个终端设备发送的本地字典,为全局字典中与该一个终端设备对应的部分。
在一些实施例中,中心化服务器在得到全局字典后,可以基于全局字典,向与其连接的每个终端设备分别发送各自的本地字典。具体的,在上述实施例中,全局字典是由所有的终端设备按照终端设备的标识顺序进行累加得到的。进一步的,中心化服务器可以对全局字典,按照终端设备的标识顺序进行按列分割,得到每个终端设备对应的本地字典,并分别向每个终端设备发送本地字典,使得每个终端设备获得经全局字典更新后的本地字典并存储,用于后续的图4中的数据传输过程。
需要说明的是,上述字典学习的过程S501-S504,可以在数据传输过程(即上述S401-S403)之前完成,也可以在第一终端设备接收到数据请求之后,即S401之后完成。也可以在指定周期内重复执行,以不断更新本地字典和全局字典,更为切合实际情况下本地数据不断新增的情况。本申请实施例对字典学习过程的具体执行的时机不作限制。
例如,以下结合具体的实例数据对字典学习在本方案中起到的保证隐私不泄露的功能进行说明。本地数据可以是代表智能终端设备信息、运行工况和监测数据等,以水位检测红外智能终端的数据为例,一组本地数据可以表示为:“设备标识(identity,ID):deviceid_001,终端互联网协议地址(internet protocol address,IP):192.168.0.1,用户:zhangsan,权限:admin,液位:9厘米,温度:20摄氏度”。对该本地隐私学习经过字典学习后,该组数据的稀疏字典可以表示为[1,1,3,1,9,20],其对应的字典索引可以表示为[100,105,117,97,119,116]。其中,字典索引中每个数字表示字母对应的ASCII码,分别对应设备、IP、用户、权限、液位和温度的英文中某一个关键字母。稀疏字典和字典索引的结合使用,还原得到的训练数据可以表示为“d:1,i:1,u:3,a:1,w:9,t:20”。可以看出,上述训练数据相比较原始的本地隐私数据,在还原关键特征以满足机器模型训练的同时,还对隐私数据进行了一定程度的降维,从而避免本地隐私数据的泄露。
以下对本申请实施例提供的基于联邦字典学习数据传输方法进行综合说明。首先设计构建可嵌入物联网终端设备内的轻量化客户端,进行针对各终端设备的本地数据(或称为本地隐私业务数据)的本地字典学习,生成表征本地隐私业务数据的特征的本地稀疏字典。各个终端客户端将训练生成的本地稀疏字典发送至中心化服务器,中心化服务器基于各个终端的本地稀疏字典进行全局字典学习,生成代表全局隐私业务数据的全局字典,中心化服务器向每个终端客户端发送全局字典对应各终端的部分,终端客户端根据全局字典更新本地稀疏字典为本地字典。物联网终端在向中心化服务器传输隐私业务数据时,通过终端客户端进行,并且不传输原始隐私业务数据,只传输字典索引数据,中心化服务器基于全局字典和字典索引数据进行字典查询,以还原数据后进行使用。在物联网终端之间进行隐私业务数据传输时,数据需求方终端首先向目标终端(即前述实施例中的第一终端设备)发送本地字典数据获取请求,目标终端接到请求后首先将自身经过全局训练更新后的本地字典发送给需求方终端(即前述实施例中的数据需求设备),之后目标终端向需求方终端传输隐私数据,同样仅传输字典索引数据,需求方终端根据获取的目标终端本地字典,进行数据还原使用。
上述实施例提供的技术方案至少带来以下有益效果,本申请实施例提供的基于联邦字典学习数据传输方法,在数据需求设备需要第一终端设备的本地数据时,第一终端设备向数据需求设备发送字典索引数据,数据需求设备可以基于字典索引数据获取本地数据经字典学习后的训练数据。本方案提供的数据传输方法,是对本地数据进行字典学习,过滤本地数据中隐私信息得到训练数据,以便于在传输数据时,仅传输用于查询训练数据的字典索引数据,以防止数据隐私泄露的问题。
进一步的,本方案数据传输主要传输字典索引数据,而不是传统联邦学习中将模型参数进行加密后传输,可以有效节省传统联邦学习中各设备加解密数据的性能开销。另外,字典学习模型十分完善,且模型简洁,在保证数据的私密性和安全性的同时,还可以大大减小对终端设备的性能门槛要求,可以应用于大部分的终端设备。而且,该方案传输的字典是经过数据降维后的关键信息,在进行数据传输时对网络带宽资源的需求很小,可以适用于海量异构大规模的物联网场景。
在示例性的实施例中,本申请还提供一种基于联邦字典学习数据传输装置,可以应用于上述第一终端设备。该基于联邦字典学习数据传输装置可以包括一个或多个功能模块,用于实现以上方法实施例的基于联邦字典学习数据传输方法。
例如,图7为本申请实施例提供的一种基于联邦字典学习数据传输装置的组成示意图。如图7所示,该基于联邦字典学习数据传输装置包括:接收模块701和发送模块702。接收模块701和发送模块702之间互相连接。
接收模块701用于,接收数据需求设备发送的数据请求;数据请求用于请求第一终端设备的本地数据。
发送模块702用于,向数据需求设备发送本地数据在本地字典中对应的字典索引数据;本地字典用于表征第一终端设备的本地数据经字典学习后的训练数据。
在一些实施例中,数据需求设备为第二终端设备。发送模块702还用于,向第二终端设备发送本地字典。
在一些实施例中,上述装置还包括:处理模块703。
处理模块703用于,对所有本地数据进行字典学习,得到本地稀疏字典;本地稀疏字典用于表示本地数据的特征;
发送模块702还用于,向中心化服务器发送本地稀疏字典。
接收模块701还用于,接收中心化服务器发送的本地字典,本地字典为中心化服务器对其连接的所有终端设备的本地稀疏字典进行全局字典学习得到的全局字典中,与第一终端设备对应的部分。
在一些实施例中,字典索引数据为稀疏编码。
在示例性的实施例中,本申请还提供另一种基于联邦字典学习数据传输装置,可以应用于上述数据需求设备。该基于联邦字典学习数据传输装置可以包括一个或多个功能模块,用于实现以上方法实施例的基于联邦字典学习数据传输方法。
例如,图8为本申请实施例提供的另一种基于联邦字典学习数据传输装置的组成示意图。如图8所示,该基于联邦字典学习数据传输装置包括:发送模块801、接收模块802和获取模块803。发送模块801、接收模块802和获取模块803之间互相连接。
发送模块801用于,向第一终端设备发送数据请求;数据请求用于请求第一终端设备的本地数据。
接收模块802用于,接收第一终端设备发送的本地数据在第一字典中对应的字典索引数据。
获取模块803用于,基于字典索引数据,从第一字典中获取训练数据;训练数据为本地数据经字典学习后的数据。
在一些实施例中,数据需求设备为第二终端设备;第一字典为第一终端设备的本地字典;本地字典用于表征第一终端设备的本地数据经字典学习后的训练数据;接收模块802还用于,接收第一终端设备发送的本地字典。
在一些实施例中,数据需求设备是中心化服务器,第一字典为全局字典;全局字典为中心化服务器对其连接的所有终端设备的本地数据进行全局字典学习得到。
在一些实施例中,上述装置还包括:处理模块804。
获取模块803还用于,获取与其连接的所有终端设备发送的本地稀疏字典;一个终端设备发送的本地稀疏字典用于表示一个终端设备的本地数据的特征。
处理模块804用于,使用每个终端设备的影响因子,分别对每个终端设备的本地稀疏字典进行修正后,联合所有修正后的本地稀疏字典,得到全局字典。一个终端设备的影响因子为该终端设备的数据量与所有终端设备的数据总量的比值;
发送模块801还用于,向所有终端设备分别发送本地字典;向一个终端设备发送的本地字典,为全局字典中与一个终端设备对应的部分。
在采用硬件的形式实现上述集成的模块的功能的情况下,本申请实施例提供了一种电子设备可能的结构示意图。该电子设备可以是上述基于联邦字典学习数据传输装置。如图9所示,该电子设备900包括:处理器902,通信接口903,总线904。可选的,该电子设备还可以包括存储器901。
处理器902,可以是实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。该处理器902可以是中央处理器,通用处理器,数字信号处理器,专用集成电路,现场可编程门阵列或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。所述处理器902也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
通信接口903,用于与其他设备通过通信网络连接。该通信网络可以是以太网,无线接入网,无线局域网(wireless local area networks,WLAN)等。
存储器901,可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(electrically erasable programmable read-only memory,EEPROM)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
作为一种可能的实现方式,存储器901可以独立于处理器902存在,存储器901可以通过总线904与处理器902相连接,用于存储指令或者程序代码。处理器902调用并执行存储器901中存储的指令或程序代码时,能够实现本申请实施例提供的基于联邦字典学习数据传输方法。
另一种可能的实现方式中,存储器901也可以和处理器902集成在一起。
总线904,可以是扩展工业标准结构(extended industry standardarchitecture,EISA)总线等。总线904可以分为地址总线、数据总线、控制总线等。为便于表示,图9中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将基于联邦字典学习数据传输装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
本申请实施例还提供了一种计算机可读存储介质。上述方法实施例中的全部或者部分流程可以由计算机指令来指示相关的硬件完成,该程序可存储于上述计算机可读存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。计算机可读存储介质可以是前述任一实施例的或内存。上述计算机可读存储介质也可以是上述基于联邦字典学习数据传输装置的外部存储设备,例如上述基于联邦字典学习数据传输装置上配备的插接式硬盘,智能存储卡(smart media card,SMC),安全数字(secure digital,SD)卡,闪存卡(flash card)等。进一步地,上述计算机可读存储介质还可以既包括上述基于联邦字典学习数据传输装置的内部存储单元也包括外部存储设备。上述计算机可读存储介质用于存储上述计算机程序以及上述基于联邦字典学习数据传输装置所需的其他程序和数据。上述计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供一种计算机程序产品,该计算机产品包含计算机程序,当该计算机程序产品在计算机上运行时,使得该计算机执行上述实施例中所提供的任一项基于联邦字典学习数据传输方法。
尽管在此结合各实施例对本申请进行了描述,然而,在实施所要求保护的本申请过程中,本领域技术人员通过查看附图、公开内容、以及所附权利要求书,可理解并实现公开实施例的其他变化。在权利要求中,“包括”(Comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其他单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。
尽管结合具体特征及其实施例对本申请进行了描述,显而易见的,在不脱离本申请的精神和范围的情况下,可对其进行各种修改和组合。相应地,本说明书和附图仅仅是所附权利要求所界定的本申请的示例性说明,且视为已覆盖本申请范围内的任意和所有修改、变化、组合或等同物。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
以上,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (12)

1.一种基于联邦字典学习数据传输方法,其特征在于,所述方法包括:
第一终端设备接收数据需求设备发送的数据请求;所述数据请求用于请求所述第一终端设备的本地数据;
所述第一终端设备向所述数据需求设备发送所述本地数据在本地字典中对应的字典索引数据;所述本地字典用于表征所述第一终端设备的本地数据经字典学习后的训练数据。
2.根据权利要求1所述的方法,其特征在于,所述数据需求设备为第二终端设备;
所述方法还包括:
所述第一终端设备向所述第二终端设备发送所述本地字典。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
所述第一终端设备对所有本地数据进行字典学习,得到本地稀疏字典;所述本地稀疏字典用于表示本地数据的特征;
所述第一终端设备向中心化服务器发送所述本地稀疏字典;
所述第一终端设备接收所述中心化服务器发送的所述本地字典,所述本地字典为所述中心化服务器对其连接的所有终端设备的本地稀疏字典进行全局字典学习得到的全局字典中,与所述第一终端设备对应的部分。
4.根据权利要求1或2所述的方法,其特征在于,所述字典索引数据为稀疏编码。
5.一种基于联邦字典学习数据传输方法,其特征在于,所述方法包括:
数据需求设备向第一终端设备发送数据请求;所述数据请求用于请求所述第一终端设备的本地数据;
所述数据需求设备接收所述第一终端设备发送的所述本地数据在第一字典中对应的字典索引数据;
所述数据需求设备基于所述字典索引数据,从所述第一字典中获取训练数据;所述训练数据为所述本地数据经字典学习后的数据。
6.根据权利要求5所述的方法,其特征在于,所述数据需求设备为第二终端设备;所述第一字典为所述第一终端设备的本地字典;所述本地字典用于表征所述第一终端设备的本地数据经字典学习后的训练数据;
在所述数据需求设备接收所述第一终端设备发送的所述本地数据在第一字典中对应的字典索引数据之前,所述方法还包括:
所述第二终端设备接收所述第一终端设备发送的所述本地字典。
7.根据权利要求5所述的方法,其特征在于,所述数据需求设备是中心化服务器,所述第一字典为全局字典;所述全局字典为所述中心化服务器对其连接的所有终端设备的本地数据进行全局字典学习得到。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
所述中心化服务器获取与其连接的所有终端设备发送的本地稀疏字典;一个终端设备发送的本地稀疏字典用于表示所述一个终端设备的本地数据的特征;
所述中心化服务器使用每个终端设备的影响因子,分别对每个终端设备的本地稀疏字典进行修正后,联合所有修正后的本地稀疏字典,得到所述全局字典;一个终端设备的影响因子为该终端设备的数据量与所述所有终端设备的数据总量的比值;
所述中心化服务器向所述所有终端设备分别发送本地字典;向一个终端设备发送的本地字典,为所述全局字典中与所述一个终端设备对应的部分。
9.一种基于联邦字典学习数据传输装置,应用于第一终端设备,其特征在于,所述装置包括:接收模块和发送模块;
所述接收模块用于,接收数据需求设备发送的数据请求;所述数据请求用于请求所述第一终端设备的本地数据;
所述发送模块用于,向所述数据需求设备发送所述本地数据在本地字典中对应的字典索引数据;所述本地字典用于表征所述第一终端设备的本地数据经字典学习后的训练数据。
10.一种基于联邦字典学习数据传输装置,应用于数据需求设备,其特征在于,所述装置包括:发送模块、接收模块和获取模块;
所述发送模块用于,向第一终端设备发送数据请求;所述数据请求用于请求所述第一终端设备的本地数据;
所述接收模块用于,接收所述第一终端设备发送的所述本地数据在第一字典中对应的字典索引数据;
所述获取模块用于,基于所述字典索引数据,从所述第一字典中获取训练数据;所述训练数据为所述本地数据经字典学习后的数据。
11.一种电子设备,其特征在于,所述电子设备包括:处理器和存储器;
所述存储器存储有所述处理器可执行的指令;
所述处理器被配置为执行所述指令时,使得所述电子设备实现如权利要求1-8任一项所述的方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括:计算机软件指令;
当所述计算机软件指令在电子设备中运行时,使得所述电子设备实现如权利要求1-8任一项所述的方法。
CN202211256270.XA 2022-10-14 2022-10-14 基于联邦字典学习数据传输方法、装置、设备及存储介质 Active CN115329032B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211256270.XA CN115329032B (zh) 2022-10-14 2022-10-14 基于联邦字典学习数据传输方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211256270.XA CN115329032B (zh) 2022-10-14 2022-10-14 基于联邦字典学习数据传输方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN115329032A CN115329032A (zh) 2022-11-11
CN115329032B true CN115329032B (zh) 2023-03-24

Family

ID=83913654

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211256270.XA Active CN115329032B (zh) 2022-10-14 2022-10-14 基于联邦字典学习数据传输方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN115329032B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111177249A (zh) * 2019-12-10 2020-05-19 浙江大学 一种基于联邦学习思想的多数据源数据可视化方法和装置
CN112232528A (zh) * 2020-12-15 2021-01-15 之江实验室 一种联邦学习模型训练方法、装置及联邦学习系统
CN113177645A (zh) * 2021-06-29 2021-07-27 腾讯科技(深圳)有限公司 联邦学习方法、装置、计算设备及存储介质
CN114417417A (zh) * 2022-01-24 2022-04-29 山东大学 一种基于联邦学习的工业物联网隐私保护系统及方法
CN114662705A (zh) * 2022-03-18 2022-06-24 腾讯科技(深圳)有限公司 联邦学习方法、装置、电子设备和计算机可读存储介质
CN114722427A (zh) * 2022-06-07 2022-07-08 腾讯科技(深圳)有限公司 联邦学习中的隐私去重方法、装置、设备及存储介质
CN114866599A (zh) * 2022-04-29 2022-08-05 济南中科泛在智能计算研究院 基于最优联邦方选择的联邦学习方法、设备及系统
CN114925072A (zh) * 2022-06-13 2022-08-19 深圳致星科技有限公司 数据管理方法、装置、系统、设备、介质和程序产品

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9288484B1 (en) * 2012-08-30 2016-03-15 Google Inc. Sparse coding dictionary priming
CN104851116A (zh) * 2015-05-21 2015-08-19 广东中烟工业有限责任公司 一种近红外光谱数据压缩方法、装置及系统
CN109948735B (zh) * 2019-04-02 2021-11-26 广东工业大学 一种多标签分类方法、系统、装置及存储介质
CN110705636B (zh) * 2019-09-29 2022-10-18 重庆邮电大学 一种基于多样本字典学习和局部约束编码的图像分类方法
CN112632567A (zh) * 2019-10-08 2021-04-09 杭州锘崴信息科技有限公司 一种多数据源全流程加密大数据分析方法和系统
CN111464635B (zh) * 2020-03-31 2022-02-22 新华三信息安全技术有限公司 一种字典索引传输方法及装置
CN111538759B (zh) * 2020-04-20 2023-09-12 中南大学 一种基于分布式字典学习的工业过程智能监测方法与系统
US20210374608A1 (en) * 2020-06-02 2021-12-02 Samsung Electronics Co., Ltd. System and method for federated learning using weight anonymized factorization
CN111737977B (zh) * 2020-06-24 2022-05-17 平安科技(深圳)有限公司 数据字典生成方法、数据查询方法、装置、设备及介质
CN113923225A (zh) * 2020-11-16 2022-01-11 京东科技控股股份有限公司 基于分布式架构的联邦学习平台、方法、设备和存储介质
CN113626443B (zh) * 2021-08-26 2024-03-15 企查查科技股份有限公司 索引的数据处理方法、装置、计算机设备和存储介质
CN114187006A (zh) * 2021-11-03 2022-03-15 杭州未名信科科技有限公司 一种基于区块链监管的联邦学习方法
CN115033544A (zh) * 2022-05-12 2022-09-09 深圳智慧林网络科技有限公司 一种基于关系数值的数据压缩方法、装置、设备和介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111177249A (zh) * 2019-12-10 2020-05-19 浙江大学 一种基于联邦学习思想的多数据源数据可视化方法和装置
CN112232528A (zh) * 2020-12-15 2021-01-15 之江实验室 一种联邦学习模型训练方法、装置及联邦学习系统
CN113177645A (zh) * 2021-06-29 2021-07-27 腾讯科技(深圳)有限公司 联邦学习方法、装置、计算设备及存储介质
CN114417417A (zh) * 2022-01-24 2022-04-29 山东大学 一种基于联邦学习的工业物联网隐私保护系统及方法
CN114662705A (zh) * 2022-03-18 2022-06-24 腾讯科技(深圳)有限公司 联邦学习方法、装置、电子设备和计算机可读存储介质
CN114866599A (zh) * 2022-04-29 2022-08-05 济南中科泛在智能计算研究院 基于最优联邦方选择的联邦学习方法、设备及系统
CN114722427A (zh) * 2022-06-07 2022-07-08 腾讯科技(深圳)有限公司 联邦学习中的隐私去重方法、装置、设备及存储介质
CN114925072A (zh) * 2022-06-13 2022-08-19 深圳致星科技有限公司 数据管理方法、装置、系统、设备、介质和程序产品

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于联邦数据库的数据集成体系研究;邹卫国等;《中国管理信息化》;20090701(第13期);全文 *

Also Published As

Publication number Publication date
CN115329032A (zh) 2022-11-11

Similar Documents

Publication Publication Date Title
US11017322B1 (en) Method and system for federated learning
Bonawitz et al. Practical secure aggregation for federated learning on user-held data
CN113505882B (zh) 基于联邦神经网络模型的数据处理方法、相关设备及介质
CN112449009B (zh) 一种基于svd的联邦学习推荐系统通信压缩方法及装置
CN109743727B (zh) 基于雾计算的高效隐私保护感知大数据收集方法
CN110222795B (zh) 基于卷积神经网络的p2p流量的识别方法及相关装置
CN113935050B (zh) 基于联邦学习的特征提取方法和装置、电子设备、介质
CN117278325A (zh) 一种计算机网络大数据安全防护方法及系统
CN104717644A (zh) 一种可验证隐私保护的两层传感器网络范围查询方法
CN116681141A (zh) 隐私保护的联邦学习方法、终端及存储介质
Sami et al. Secure aggregation for clustered federated learning
CN112995939B (zh) 一种无线传感网传输与云服务接入控制系统
CN115329032B (zh) 基于联邦字典学习数据传输方法、装置、设备及存储介质
CN113326947A (zh) 一种联合学习模型训练方法及系统
CN117349685A (zh) 一种通信数据的聚类方法、系统、终端及介质
CN117119535A (zh) 一种移动端集群热点共享的数据分流方法和系统
CN112580011A (zh) 一种面向生物特征隐私保护的人像加解密系统
CN114726524B (zh) 目标数据的排序方法、装置、电子设备及存储介质
CN112348192B (zh) 基于知识联邦的知识推理方法、系统、设备及介质
CN113452783B (zh) 区块链云架构的数字化paas开放平台系统及实现方法
CN114048804B (zh) 一种分类模型训练方法及装置
CN115329981A (zh) 一种通信高效、保护隐私且抗攻击的联邦学习方法
CN111581663B (zh) 面向非规则用户的保护隐私的联邦深度学习方法
Du et al. A Lightweight Homomorphic Encryption Federated Learning Based on Blockchain in IoV
Zhang et al. Graph Sparsification-Based Secure Federated Learning for Consumer-Driven Internet of Things

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant