CN113313245A - 用于共享学习的模型处理方法、系统、装置以及电子设备 - Google Patents

用于共享学习的模型处理方法、系统、装置以及电子设备 Download PDF

Info

Publication number
CN113313245A
CN113313245A CN202010124814.1A CN202010124814A CN113313245A CN 113313245 A CN113313245 A CN 113313245A CN 202010124814 A CN202010124814 A CN 202010124814A CN 113313245 A CN113313245 A CN 113313245A
Authority
CN
China
Prior art keywords
neural network
value
model
network model
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010124814.1A
Other languages
English (en)
Other versions
CN113313245B (zh
Inventor
吴帆
吕承飞
吕洪涛
郑臻哲
华立锋
贾荣飞
吴志华
陈贵海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN202010124814.1A priority Critical patent/CN113313245B/zh
Publication of CN113313245A publication Critical patent/CN113313245A/zh
Application granted granted Critical
Publication of CN113313245B publication Critical patent/CN113313245B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioethics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种用于共享学习的模型处理方法,包括:获得针对初始神经网络模型的多个候选模型更新值;对多个候选模型更新值进行质量评估,获得多个候选模型更新值的权重;对多个候选模型更新值采用带权重的中位数机制,确定对初始神经网络模型进行更新的模型更新值;基于确定的更新值,对初始神经网络模型进行更新。本申请首先获得多个候选模型更新值,之后,通过进行质量评估,获得多个候选模型更新值的权重,然后基于加权中位数机制确定对初始神经网络模型进行更新的模型更新值,基于加权中位数机制能够避免采用虚假的经过训练的神经网络模型更新初始神经网络模型,能够解决采用现有的模型更新方法使得更新的神经网络模型不符合真实情形的问题。

Description

用于共享学习的模型处理方法、系统、装置以及电子设备
技术领域
本申请涉及计算机技术领域,具体涉及一种用于共享学习的模型处理方法、系统、装置以及电子设备。
背景技术
随着神经网络技术的不断发展,神经网络技术在各个领域的应用也越来越广泛。尤其是在共享学习中,将共享学习技术与神经网络技术结合,能够便于进行用户隐私数据的保护。将共享学习技术与神经网络技术结合主要基于以下思路:云端将待训练的初始神经网络模型发送至多个用户,用户在本地端通过数据集即可实现对初始神经网络模型的训练,然后用户将训练的神经网络模型发送至云端。由于该过程避免了用户将数据集发送至云端,因此能够实现保护用户隐私数据的安全性。
对于上述情形,云端会接收到多个经过训练的神经网络模型,在接收到多个经过训练的神经网络模型后,需要云端决策如何根据多个经过训练的神经网络模型对初始神经网络模型进行更新。现有技术中,一般多采用加权平均聚合模型,具体地说,是将多个经过训练的神经网络模型进行加权取平均值,权重取决于用户的数据数量。然而采取现有技术的这种方法进行聚合模型的方式,无法避免有些用户为了增加自身权重产生的恶意行为,例如,上传虚假的经过训练的神经网络模型,而使得自身的权重增大。最终使得云端更新的神经网络模型不符合真实情形。
发明内容
本申请提供一种用于共享学习的模型处理方法,以解决采用现有的模型更新方法无法避免有些用户为了增加自身权重产生的恶意行为,最终使得更新的神经网络模型不符合真实情形的问题。本申请还提供一种用于共享学习的模型处理系统、装置,以及与其对应的电子设备与计算机介质。
本申请提供一种用于共享学习的模型处理方法,包括:
获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
可选的,所述获得针对初始神经网络模型的多个候选模型更新值,包括:
将所述初始神经网络模型发送至用于提供针对初始神经网络模型的多个候选模型更新值的终端;
获得所述终端提供的针对初始神经网络模型的多个候选模型更新值。
可选的,所述终端通过以下方式提供针对初始神经网络模型的多个候选模型更新值:
获得多个数据集;
采用所述多个数据集分别对所述初始神经网络模型进行训练,获得多个经过训练的神经网络模型;
将所述多个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对初始神经网络模型的多个候选模型更新值。
可选的,所述终端提供所述针对初始神经网络模型的多个候选模型更新值之前,还包括将所述针对初始神经网络模型的多个候选模型更新值中的参数值进行量化压缩,获得量化压缩的针对初始神经网络模型的多个候选模型更新值;其中,所述量化压缩是指对所述参数值映射为参数空间内的整数。
可选的,所述对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重,包括:
统计所述候选模型更新值中的参数值出现频率;其中,所述统计所述候选模型更新值中的参数值出现频率是指,分别统计所述多个候选模型更新值中的每个候选模型更新值中的参数值出现频率;
根据所述参数值出现频率,获得参数之间的相关性;
基于所述参数之间的相关性,计算所述候选模型更新值的质量值;
对所述候选模型更新值的质量值进行归一化处理,获得所述多个候选模型更新值中的每个候选模型更新值的权重。
可选的,所述统计所述候选模型更新值中的参数值出现频率,包括:
将所述候选模型更新值中的参数值进行划分,获得第一参数值集合与第二参数值集合;其中,所述第一参数值集合与所述第二参数值集合不含有重合的参数值;
判断每个参数值、每个对比参数值以及每个参数值对,在所述第一参数值集合中的第一出现频率、第二出现频率以及第三出现频率;
判断每个参数值、每个对比参数值以及每个参数值对,在所述第二参数值集合中的第四出现频率、第五出现频率以及第六出现频率;
将所述第一出现频率、所述第二出现频率、所述第三出现频率、所述第四出现频率、所述第五出现频率以及所述第六出现频率,作为所述候选模型更新值中的参数值出现频率;
其中,所述对比参数值为对比候选模型更新值中的参数值。
可选的,所述根据所述参数值出现频率,获得参数之间的相关性,包括:
将参数值对在所述第一参数值集合中的第三出现频率,与参数值在所述第一参数值集合中的第一出现频率以及对比参数值在所述第一参数值集合中的第二出现频率的乘积做差,获得第一差值;
将参数值对在所述第二参数值集合中的第六出现频率,与参数值在所述第二参数值集合中的第四出现频率以及对比参数值在所述第二参数值集合中的第五出现频率的乘积做差,获得第二差值;
将所述第一差值与所述第二差值,作为所述参数之间的相关性。
可选的,所述基于所述参数之间的相关性,计算所述候选模型更新值的质量值,包括:
从所述候选模型更新值中的参数值中选取一部分参数组成奖赏参数值集合;
按照计算所述第二差值的方式计算既属于所述第一参数值集合又属于所述奖赏参数值集合中的参数值的第一参数相关性;
按照计算所述第二差值的方式计算属于所述第一参数值集合但不属于所述奖赏参数值集合中的两个参数值的第二参数相关性;
将所述第一参数相关性与所述第二参数相关性分别作为符号函数的自变量,获得第一函数值与第二函数值,并将所述第一函数值与所述第二函数值做差,获得第一参数的质量值,并将所述第一参数的质量值作为所述候选模型更新值的质量值。
可选的,所述基于所述参数之间的相关性,计算所述候选模型更新值的质量值,包括:
从所述候选模型更新值中的参数值中选取一部分参数组成奖赏参数值集合;
按照计算所述第一差值的方式计算既属于所述第二参数值集合又属于所述奖赏参数值集合中的参数值的第三参数相关性;
按照计算所述第一差值的方式计算属于所述第二参数值集合但不属于所述奖赏参数值集合中的两个参数值的第四参数相关性;
将所述第三参数相关性与所述第四参数相关性分别作为符号函数的自变量,获得第三函数值与第四函数值,并将所述第三函数值与所述第四函数值做差,获得第二参数的质量值,并将所述第二参数的质量值作为所述候选模型更新值的质量值。
可选的,所述对所述候选模型更新值的质量值进行归一化处理,获得所述多个候选模型更新值中的每个候选模型更新值的权重,包括:
将所述候选模型更新值的质量值作为归一化函数的自变量,获得所述归一化函数的函数值;将所述归一化函数的函数值作为候选模型更新值的权重。
可选的,所述对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值,包括:
选取多个候选模型更新值的带权重的中位数,将所述带权重的中位数作为对所述初始神经网络模型进行更新的模型更新值。
可选的,所述基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新,包括:
将所述对所述初始神经网络模型进行更新的模型更新值与所述初始神经网络模型进行相加,获得更新后的神经网络模型。
可选的,还包括:将所述更新后的神经网络模型提供给终端进行模型训练。
本申请还提供一种用于共享学习的模型处理装置,包括:
候选模型更新值获得单元,用于获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
质量评估单元,用于根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
模型更新值确定单元,用于对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
更新单元,用于基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
本申请还提供一种用于共享学习的模型处理系统,包括:多个终端与云端;
所述多个终端获得所述云端发送的初始神经网络模型;所述多个终端分别基于各自的数据集对所述初始神经网络模型训练,获得多个经过训练的神经网络模型;将所述多个经过训练的神经网络模型中的每个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对所述初始神经网络模型的多个候选模型更新值;将所述针对所述初始神经网络模型的多个候选模型更新值提供给所述云端;
所述云端获得针对初始神经网络模型的多个候选模型更新值;根据差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
本申请还提供一种用于共享学习的音频数据模型处理方法,包括:
多个终端获得云端发送的初始神经网络模型;分别基于各自的音频数据集对所述初始神经网络模型训练,获得多个经过训练的神经网络模型;将所述多个经过训练的神经网络模型中的每个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对所述初始神经网络模型的多个候选模型更新值;将所述针对所述初始神经网络模型的多个候选模型更新值提供给所述云端;
所述云端获得针对初始神经网络模型的多个候选模型更新值;根据差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新。
本申请还提供一种用于共享学习的图像数据模型处理方法,包括:
多个终端获得云端发送的初始神经网络模型;分别基于各自的图像数据集对所述初始神经网络模型训练,获得多个经过训练的神经网络模型;将所述多个经过训练的神经网络模型中的每个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对所述初始神经网络模型的多个候选模型更新值;将所述针对所述初始神经网络模型的多个候选模型更新值提供给所述云端;
所述云端获得针对初始神经网络模型的多个候选模型更新值;根据差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新。
本申请还提供一种电子设备,包括:
处理器;
存储器,用于存储计算机程序,该计算机程序被处理器运行,执行用于共享学习的模型处理方法,所述方法包括如下步骤:
获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
本申请还提供一种计算机存储介质,所述计算机存储介质存储有计算机程序,该计算机程序被处理器运行,执行用于共享学习的模型处理方法,所述方法包括如下步骤:
获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
与现有技术相比,本申请具有以下优点:
本申请提供一种用于共享学习的模型处理方法,包括:获得针对初始神经网络模型的多个候选模型更新值;其中,候选模型更新值为经过训练的神经网络模型与初始神经网络模型的差值,经过训练的神经网络模型为基于数据集对初始神经网络模型进行训练获得的神经网络模型;根据差值的数据属性对多个候选模型更新值进行质量评估,获得多个候选模型更新值中的每个候选模型更新值的权重;对多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对初始神经网络模型进行更新的模型更新值;基于对初始神经网络模型进行更新的模型更新值,对初始神经网络模型进行更新;其中,数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。由于本申请通过获得多个候选模型更新值,之后,通过进行质量评估,获得多个候选模型更新值中的每个候选模型更新值的权重,然后基于加权中位数机制确定对初始神经网络模型进行更新的模型更新值,一旦用户上传虚假的经过训练的神经网络模型,本申请的基于加权中位数机制能够避免采用虚假的经过训练的神经网络模型更新初始神经网络模型,因此,本申请的模型处理方法解决了采用现有的模型更新方法最终使得更新的神经网络模型不符合真实情形的问题。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1-A为本申请第一实施例提供的应用场景实施例的第一示意图。
图1-B为本申请第一实施例提供的应用场景实施例的第二示意图。
图2为本申请第二实施例提供的用于共享学习的模型处理方法流程图。
图3为本申请第二实施例提供的对多个候选模型更新值进行质量评估的方法流程图。
图4为本申请第三实施例提供的用于共享学习的模型处理装置示意图。
图5为本申请第七实施例提供的用于共享学习的模型处理电子设备示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此,本申请不受下面公开的具体实施的限制。
本申请提供的实施例可以应用于终端、云端之间交互的场景。如图1-A与图1-B所示,其分别为本申请第一实施例提供的应用场景实施例的第一示意图与第二示意图。首先,云端将初始神经网络模型发送至终端(终端1至终端n),终端获得初始神经网络模型,在终端获得初始神经网络模型后,终端进行如下处理过程:首先,获得多个数据集。之后,采用多个数据集分别对初始神经网络模型进行训练,获得多个经过训练的神经网络模型。再之后,将多个经过训练的神经网络模型分别与初始神经网络模型做差,获得针对初始神经网络模型的多个候选模型更新值。
具体地,上述数据集的数据可以为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。例如,对于音频数据或者图像数据而言,将音频数据与图像数据作为训练的数据集,实质上是将其作为训练样本数据,而根据这些音频数据或者图像数据训练更新后的神经网络模型能够将预测音频数据或者预测图像数据作为输入数据,输出音频数据预测结果或者图像数据预测结果,进而可以将音频数据预测结果或者图像数据预测结果推荐给终端的用户。同样地,对于用户行为数据或终端传感器数据也可以作为数据集按照上述音频数据、图像数据作为数据集进行训练的过程进行训练。
在本申请中,初始神经网络是指需要进行训练的神经网络模型。以更新第一轮神经网络模型的过程为一个周期,首先,云端获得预先设计的最开始的初始神经网络模型。之后,将最开始的初始神经网络模型发送给多个终端。多个终端对最开始的初始神经网络模型进行训练以获得多个候选模型更新值,之后对多个候选模型更新值中确定的模型更新值对最开始的初始神经网络模型进行更新,以获得第一轮更新后的神经网络模型。上述过程即完成了第一轮的模型更新过程。在更新神经网络模型第一轮后,云端可以将第一轮更新后的神经网络模型作为第二轮待更新的初始神经网络模型,发送至多个终端进行训练。换言之,本申请的初始神经网络模型可以是指云端发送至多个终端的待训练的神经网络模型。
具体地,上述多个数据集可以是指终端一侧多个用户产生的数据集,例如,在商品推荐场景中,一个数据集可以是某个用户点击、浏览以及收藏商品的历史行为数据,基于这些历史行为数据可以对初始神经网络模型进行训练,即:将数据集作为训练初始神经网络模型的样本数据。上述针对初始神经网络模型的多个候选模型更新值是指将多个经过训练的神经网络模型分别与初始神经网络模型进行做差,以获得对初始神经网络模型进行更新的依据。
终端在获得针对初始神经网络模型的多个候选模型更新值后,将针对初始神经网络模型的多个候选模型更新值提供给云端。需要说明的是,终端并未将数据集传输至云端,从而在云端进行初始神经网络模型的训练。而是直接在终端(相当于在本地端)进行初始神经网络模型的训练,从而达到保护用户隐私数据的目的,另外,对于用户数据量较大的情形,在本地端进行初始神经网络模型的训练能够解决数据传输困难的问题。但是由于在本地端进行初始神经网络模型的训练,对于有些用户的恶意行为,例如上传虚假的经过训练的神经网络模型,无疑会导致云端在更新初始神经网络模型时,获得的更新神经网络模型不符合真实情形。
针对上述问题,云端在接收针对初始神经网络模型的多个候选模型更新值后,首先,根据差值的数据属性对多个候选模型更新值进行质量评估,获得多个候选模型更新值中的每个候选模型更新值的权重。在实际应用时,可以根据不同用户的需求,提供不同程度或者不同等级的质量评估。例如,在用户所需质量评估要求较高时,能够提供较高等级的质量评估;反之,在用户所需质量评估要求不是很高时,能够提供一般等级或者较低等级的质量评估。
之后,对多个候选模型更新值中的每个候选模型更新值采用加权中位数机制(加权中位数机制即:带权重的中位数机制),确定对初始神经网络模型进行更新的模型更新值。最终,基于对初始神经网络模型进行更新的模型更新值,对初始神经网络模型进行更新,即聚合模型。
相比于现有的采用加权平均聚合模型的方式,本申请利用加权中位数机制确定的对初始神经网络模型进行更新的模型更新值,能够将存在用户恶意行为的候选模型更新值剔除,以不用于对初始神经网络模型进行更新,从而使得最终获得的更新神经网络模型符合真实情形。
在云端更新初始神经网络模型之后,获得第一轮更新后的神经网络模型。可以再将第一轮更新后的神经网络模型再发送给终端,此时实际上是将第一轮更新后的神经网络模型又作为第二轮的初始神经网络模型被提供给终端,从而获得进行第二轮神经网络模型更新的多个候选模型更新值。
在将神经网络模型更新至符合条件后(符合条件可以是指满足该模型损失函数预先设定的条件),可以将最终更新后的神经网络模型用于对用户进行商品的推荐,即:将用户之前对商品的历史记录作为最终更新后的神经网络模型的输入数据,获得最终更新后的神经网络模型的输出数据,其中,最终更新后的神经网络模型的输出数据即为接下来对该用户进行推荐的商品。
需要说明的是,上述应用场景仅仅作为一个实施例,提供此应用场景实施例的目的是便于理解本申请的用于共享学习的模型处理方法,而并非用于限定本申请的用于共享学习的模型处理方法。
本申请提供一种用于共享学习的模型处理方法、系统、装置、电子设备以及计算机存储介质,以下为具体实施例。
如图2所示,其为本申请第二实施例提供的一种用于共享学习的模型处理方法实施例的流程图。所述方法包括如下步骤。
步骤S201:获得针对初始神经网络模型的多个候选模型更新值。
作为第二实施例的用于共享学习的模型处理方法的首要步骤,首先获得针对初始神经网络模型的多个候选模型更新值。其中,候选模型更新值为经过训练的神经网络模型与初始神经网络模型的差值,经过训练的神经网络模型为基于数据集对初始神经网络模型进行训练获得的神经网络模型。
作为获得针对初始神经网络模型的多个候选模型更新值的其中一种方式,可以是按照如下的方式。首先,将初始神经网络模型发送至用于提供针对初始神经网络模型的多个候选模型更新值的终端。之后,获得终端提供的针对初始神经网络模型的多个候选模型更新值。
具体地,云端将初始神经网络模型发送至终端,终端获得初始神经网络模型。在终端获得初始神经网络模型后,终端进行如下处理过程:首先,获得多个数据集。之后,采用多个数据集分别对初始神经网络模型进行训练,获得多个经过训练的神经网络模型。再之后,将多个经过训练的神经网络模型分别与初始神经网络模型做差,获得针对初始神经网络模型的多个候选模型更新值。
更具体地,上述多个数据集可以是指终端一侧多个用户产生的数据集,其中,数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。具体地,上述数据集的数据可以为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。例如,对于音频数据或者图像数据而言,将音频数据与图像数据作为训练的数据集,实质上是将其作为训练样本数据,而根据这些音频数据或者图像数据训练更新后的神经网络模型能够将预测音频数据或者预测图像数据作为输入数据,输出音频数据预测结果或者图像数据预测结果,进而可以将音频数据预测结果或者图像数据预测结果推荐给终端的用户。同样地,对于用户行为数据或终端传感器数据也可以作为数据集按照上述音频数据、图像数据作为数据集进行训练的过程进行训练。
例如,在商品推荐场景中,一个数据集可以是某个用户点击、浏览以及收藏商品的历史行为数据,基于这些历史行为数据可以对初始神经网络模型进行训练,即:将数据集作为训练初始神经网络模型的样本数据。上述针对初始神经网络模型的多个候选模型更新值是指将多个经过训练的神经网络模型分别与初始神经网络模型进行做差,以获得对初始神经网络模型进行更新的依据。候选模型更新值是为初始神经网络模型更新参数提供的候选更新参数值。
在终端提供针对初始神经网络模型的多个候选模型更新值之前,将针对初始神经网络模型的多个候选模型更新值中的参数值进行量化压缩,获得量化压缩的针对初始神经网络模型的多个候选模型更新值;其中,量化压缩是指对参数值映射为参数空间内的整数。
具体地,上述量化压缩是指按照一定的映射方式将不是整数的参数值映射为参数空间内的整数。例如,对于0到100之间的小数作为参数值时,假设:2.89,23.20,34.33,89.35作为参数值,现在做如下规定,规定0-10之间的数用5表示,10-20之间的数用15表示,20-30之间的数用25表示,以此类推。基于上述规定,可以将2.89用0表示,23.20用2表示,34.33用3表示,89.35用8表示。然后只需要传输0,2,3,8,传输完毕之后,再用公式y=x*10+5进行转换,0,2,3,8这四个参数值就转换成5,25,35,85。基于上述过程完成了参数值的量化压缩。由于在量化压缩过程中上述传输的0,2,3,8都是低比特的整数,所以大大压缩了传输量。
步骤S202:根据差值的数据属性对多个候选模型更新值进行质量评估,获得多个候选模型更新值中的每个候选模型更新值的权重。
例如,在搜索推荐的场景中,假设平台希望训练一个包含有70个参数的神经网络模型,本实施例通过采用10个用户的产生的数据记录对初始神经网络模型进行训练进行说明。实际上是指每个用户使用自己的数据记录(即:数据集)对初始神经网络模型进行训练,训练完毕后每个用户各自上报一个量化压缩后的模型更新(模型更新即为上述的候选模型更新值),模型更新是一个包含70个模型参数更新值的向量。在这10个用户上传的量化压缩后的模型更新中,可能存在一些恶意用户为了节省训练成本,选择上传虚假模型更新的情形。例如恶意用户可能是取70个随机数组成向量上传,这样的模型更新显然具有较低的质量值,不应该在模型更新的聚合时拥有较大的权重。本实施例的方法恰好可以评估每个用户上传的模型更新的质量值(即获得质量值),然后为用户上传的质量值较高的模型更新分配较大的权重,为质量值较低的模型更新分配较低的权重。
首先,在步骤S201获得针对初始神经网络模型的多个候选模型更新值后,根据差值的数据属性对多个候选模型更新值进行质量评估,获得多个候选模型更新值中的每个候选模型更新值的权重。
在本步骤中,根据步骤S201的经过训练的神经网络模型与初始神经网络模型的差值对应的数据属性,对多个候选模型更新值进行质量评估,获得多个候选模型更新值中的每个候选模型更新值的权重。例如,在数据集为音频数据时,经过训练的神经网络模型初始神经网络模型的差值对应的数据属性为音频数据的属性信息,具体地,音频数据的属性信息可以是音调、音色等属性信息;而在数据集为图像数据时,经过训练的神经网络模型初始神经网络模型的差值对应的数据属性为图像数据的属性信息,具体地,图像数据的属性信息可以是像素、分辨率以及图像大小等属性信息。同样地,在数据集为用户行为数据时,经过训练的神经网络模型初始神经网络模型的差值对应的数据属性为用户产生的行为数据的属性信息,具体地,用户产生的行为数据的属性信息可以是用户点击商品次数或者时间信息、收藏商品次数或者时间信息等信息。
具体地,请参照图3,图3示出了对多个候选模型更新值进行质量评估的方法流程图,对多个候选模型更新值进行质量评估的方法包括如下步骤。
步骤S2021:统计候选模型更新值中的参数值出现频率。
其中,统计候选模型更新值中的参数值出现频率是指,分别统计上述涉及的多个候选模型更新值中的每个候选模型更新值中的参数值出现频率。具体地,作为统计候选模型更新值中的参数值出现频率的其中一种方式,可以是按照如下的方式。
首先,将候选模型更新值中的参数值进行划分,获得第一参数值集合与第二参数值集合;其中,第一参数值集合与第二参数值集合不含有重合的参数值。
之后,判断每个参数值、每个对比参数值以及每个参数值对,在第一参数值集合中的第一出现频率、第二出现频率以及第三出现频率。
在判断每个参数值、每个对比参数值以及每个参数值对,在第一参数值集合中的第一出现频率、第二出现频率以及第三出现频率的同时,判断每个参数值、每个对比参数值以及每个参数值对,在第二参数值集合中的第四出现频率、第五出现频率以及第六出现频率。
在本步骤中,将第一出现频率、第二出现频率、第三出现频率、第四出现频率、第五出现频率以及第六出现频率,作为候选模型更新值中的参数值出现频率;其中,对比参数值为对比候选模型更新值中的参数值。
具体地,统计候选模型更新值中的参数值出现频率。可以是将候选模型更新值中所有参数值随机地分为参数数量相同的参数值集合A与B。例如,将模型中70个参数进行平均分配成两个参数值集合。参数值集合A中有35个参数,参数值集合B中也有35个参数。
针对参数值集合A,分别统计参数空间中的每个值a在两用户ui与uj的候选模型更新值中的参数值集合A中的第一出现频率
Figure BDA0002394094070000141
与第二出现频率
Figure BDA0002394094070000142
同样地,对于参数空间中的每个值对a、b,统计候选模型更新值中的参数值集合A中,同一参数下ui的参数值为a,uj的参数值为b的第三出现频率
Figure BDA0002394094070000143
例如,在上述搜索场景示例中,有10个用户的数据集用于训练初始神经网络模型,10个用户的每个模型更新含有70个参数,每个参数值都属于0到9这10个整数中的一个数值。将70个参数随机分为两个参数值集合,假设前35个参数组成参数值集合A,后35个参数组成参数值集合B。对于参数值集合A,统计任意两个用户ui与uj的各参数值的出现频率
Figure BDA0002394094070000144
以及在同一参数下参数值分别为a、b的出现频率
Figure BDA0002394094070000145
其中a与b分别取0到9这10个整数中的一个数值。假设取a=1,b=2,将参数值集合A中的35个参数依次编号为1至35,那么如果在参数编号为29的参数上用户i的参数为1,用户j的参数值为2,那么就满足同一参数下的条件。假如有5个参数满足同一参数下的条件,这组值对a、b的
Figure BDA0002394094070000146
的值为七分之一。类似地,对所有a、b的取值都计算该频率。
类似于上述对参数值集合A的处理方式,针对参数值集合B,分别统计参数空间中的每个值a在两用户ui与uj的候选模型更新值中的参数值集合B中的第四出现频率
Figure BDA0002394094070000147
与第五出现频率
Figure BDA0002394094070000148
同样地,对于参数空间中的每个值对a、b,统计候选模型更新值中的参数值集合B中,同一参数下ui的参数值为a,uj的参数值为b的第六出现频率
Figure BDA0002394094070000149
需要说明的是,上述将候选模型更新值中所有参数值进行划分的方式,也可以是划分为参数数量不同的参数值集合。
步骤S2022:根据参数值出现频率,获得参数之间的相关性。
在步骤S2021统计候选模型更新值中的参数值出现频率后,根据参数值出现频率,获得参数之间的相关性。
具体地,根据参数值出现频率,获得参数之间的相关性,可以按照如下描述的方式。
将参数值对在第一参数值集合中的第三出现频率,与参数值在第一参数值集合中的第一出现频率以及对比参数值在第一参数值集合中的第二出现频率的乘积做差,获得第一差值。
在获得第一差值的同时,将参数值对在第二参数值集合中的第六出现频率,与参数值在第二参数值集合中的第四出现频率以及对比参数值在第二参数值集合中的第五出现频率的乘积做差,获得第二差值。
在该步骤中,将第一差值与第二差值,作为参数之间的相关性。
更具体地,根据参数值出现频率,获得参数之间的相关性,可以是计算关系矩阵Δ。例如,对于参数空间中的每个值对a、b,采用下式分别对参数值集合A、B计算关系矩阵:
Figure BDA0002394094070000151
Figure BDA0002394094070000152
例如,在上述取a=1,b=2时,若第一差值为0.1,第二差值为0.05,则表示该参数值对同时出现的概率大于两者随机出现的概率,即两者为正相关,两者相减得到的值为正值。
步骤S2023:基于参数之间的相关性,计算候选模型更新值的质量值。
在步骤S2022根据参数值出现频率,获得参数之间的相关性后,基于参数之间的相关性,计算候选模型更新值的质量值。
具体地,基于参数之间的相关性,计算候选模型更新值的质量值,按照如下描述的方式。
首先,从候选模型更新值中的参数值中随机选取一部分参数组成奖赏参数值集合。
之后,按照计算第二差值的方式计算既属于第一参数值集合又属于奖赏参数值集合中的参数值的第一参数相关性。与此同时,按照计算第二差值的方式计算属于第一参数值集合但不属于奖赏参数值集合中的两个参数值的第二参数相关性;
最后,将第一参数相关性与第二参数相关性分别作为符号函数的自变量,获得第一函数值与第二函数值,并将第一函数值与第二函数值做差,获得第一参数的质量值,并将第一参数的质量值作为候选模型更新值的质量值。
同样地,可以按照计算第一差值的方式计算既属于第二参数值集合又属于奖赏参数值集合中的参数值的第三参数相关性。与此同时,按照计算第一差值的方式计算属于第二参数值集合但不属于奖赏参数值集合中的两个参数值的第四参数相关性。
最后,将第三参数相关性与第四参数相关性分别作为符号函数的自变量,获得第三函数值与第四函数值,并将第三函数值与第四函数值做差,获得第二参数的质量值,并将第二参数的质量值作为候选模型更新值的质量值。
更具体地,基于参数之间的相关性,计算候选模型更新值的质量值可以采用如下的进一步的描述。从候选模型更新值中的参数值中选取一部分参数组成奖赏参数值集合M。对于既属于参数值集合M又属于参数值集合A的每一个参数p,从属于参数值集合A但是不属于参数值集合M的参数中选取两个不同的参数q和q’作为惩罚参数,可以通过如下公式计算针对参数p的质量值:
Figure BDA0002394094070000161
其中,
Figure BDA0002394094070000163
即为用户ui上传的模型更新中参数p上的值。
类似地,对于既属于参数值集合M又属于参数值集合B的每一个参数p,随机地从属于参数值集合B但是不属于参数值集合M的参数中选取两个不同的参数q和q’作为惩罚参数,可以计算得到如下针对参数p的质量值:
Figure BDA0002394094070000162
需要说明的是,为了保证用户无法通过操纵关系矩阵的方式来获取比真实情形更大的权重,上述参数值集合A与参数值集合B的关系矩阵采用交换使用的方式。
通过计算上述所有奖赏参数p的质量值的平均值,获得候选模型更新值的质量值。
为了便于理解上述过程,进行以下示例说明。假设在参数值集合A中选定编号为28的参数作为奖赏参数,选定编号为29的参数和编号为30的参数作为惩罚参数。在计算用户ui的质量值时(此处用户的质量值实际上是指经用户的数据集训练产生的候选模型更新值的质量值),选中用户uj作为对比用户。假设对于编号为28的参数,两用户的参数值为正相关,即两者的符号函数值为1。而编号为29参数上的用户ui的参数值与编号为30参数上的用户uj的参数值为负相关,即两者的符号函数值为0,则可以计算获得,用户ui针对编号为28参数(奖赏参数)的质量值为1。
步骤S2024:对候选模型更新值的质量值进行归一化处理,获得多个候选模型更新值中的每个候选模型更新值的权重。
在步骤S2023计算候选模型更新值的质量值后,对候选模型更新值的质量值进行归一化处理,获得多个候选模型更新值中的每个候选模型更新值的权重。
具体地,对候选模型更新值的质量值进行归一化处理,获得多个候选模型更新值中的每个候选模型更新值的权重可以是:将候选模型更新值的质量值作为归一化函数的自变量,获得归一化函数的函数值;将归一化函数的函数值作为候选模型更新值的权重。
采用上述步骤S2023的计算方式计算候选模型更新值的质量值的数值介于区间[-1,1],为了将候选模型更新值的质量值的数值映射为[0,1]区间中,采用下述指数函数并进行归一化处理:
Figure BDA0002394094070000171
其中k为用户数量(即候选模型更新值的数量),α为映射参数。当α较大时,候选模型更新值的权重差别也较大,当α较小时,候选模型更新值的权重差别较小。当然,可以理解的是,本申请还可以采用除上述指数函数并进行归一化处理的其他方式使得候选模型更新值的质量值的数值映射为[0,1]区间。
在上述公式中,令α的取值为1,若10个候选模型更新值的质量值分别为-1,-1,-1,-1,0,0,1,1,1,1,则可以根据上式计算10个候选模型更新值的权重。其中,质量值为-1的候选模型更新值的权重为0.0256,质量值为0的候选模型更新值的权重为0.0697,质量值为1的候选模型更新值的权重为0.1895。
步骤S203:对多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对初始神经网络模型进行更新的模型更新值。
具体地,对多个候选模型更新值中的每个候选模型更新值,采用带权重的中位数机制(即:加权中位数机制),确定对初始神经网络模型进行更新的模型更新值,可以是:选取多个候选模型更新值的带权重的中位数,将该带权重的中位数作为对初始神经网络模型进行更新的模型更新值。
在上述示例中,假设有5个用户,对于神经网络模型中的一个参数,5个用户上传的候选模型更新值分别为1,2,3,4,5,5个候选模型更新值的权重分别为0.2,0.4,0.1,0.1,0.2,基于加权中位数机制确定的模型更新值为2。
步骤S204:基于对初始神经网络模型进行更新的模型更新值,对初始神经网络模型进行更新。
在步骤S203对多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对初始神经网络模型进行更新的模型更新值之后,基于对初始神经网络模型进行更新的模型更新值,对初始神经网络模型进行更新。
具体地,基于对初始神经网络模型进行更新的模型更新值,对初始神经网络模型进行更新,可以按照如下描述的方式。将对初始神经网络模型进行更新的模型更新值与初始神经网络模型进行相加,获得更新后的神经网络模型。例如,若初始神经网络模型包含70个参数,对于其中某一个参数,假设其初始参数值为10,模型更新值为1,则更新后的神经网络模型中该参数值为11。
另外,在获得更新后的神经网络模型之后,云端可以将更新后的神经网络模型提供给终端进行下一轮的模型训练。
相比于现有技术的加权平均聚合机制,在本申请中,用户无法通过上传虚假的模型更新值中操纵初始神经网络模型以及对初始神经网络模型进行更新使其更有利于自己。另外,本申请通过候选模型更新值相互比较的方式(即质量评估)保证了对候选模型更新值质量公平的评估。同时,恶意用户无法通过增多自身数据的方式操纵初始神经网络模型。
具体地,在计算候选模型更新值的权重时,关键是计算关系矩阵Δ和利用该矩阵计算奖赏参数的质量值。首先,本申请通过交换使用参数集A、B的关系矩阵,对于参数值集合A中某一个奖赏参数而言,计算其质量值时所使用的关系矩阵并不依赖于自身的关系矩阵。另外,在计算该奖赏参数的质量值时,由于同时选取了两个互不相同的惩罚参数,因此质量值是两个用户在该参数下符合统计规律的程度减去两个用户在各任取一个不同参数下符合统计规律的程度。因此,如果用户真实上报参数值,最终获得的质量值的期望是大于等于0的,如果用户依据真实参数值进行篡改参数值,最终获得的质量值的期望不会大于真实质量值的期望。如果随机选择一个参数值,最终获得的质量值的期望为0。因此用户无法通过谎报候选模型更新值获得更大的候选模型更新值的权重,使得本申请保证了候选模型更新值的权重不会被恶意用户操纵。
在保证了候选模型更新值的权重真实性后,本申请可以同时保证初始神经网络模型无法被恶意用户操纵。对于一个特定的参数,假设一个用户训练模型的该参数值大于真实的加权中位数值,如果该用户谎报一个更大的参数值,或者谎报一个更小但是不小于加权中位数的值,那么根据加权中位数规则这个谎报将不会影响聚合得到的该参数值。如果该用户谎报一个小于加权中位数的参数值,那么根据聚合得到的该参数值将会更小,这使得更新后的神经网络模型与该用户预想的训练模型差距更大,这个谎报行为会使得该用户利益受到损失。同理,假设该用户的该参数值小于或等于真实的加权中位数值,任何形式的谎报参数值都不会使得用户的利益获得提升。所以本申请可以保证初始神经网络模型以及更新后的神经网络模型不会被操纵。
本申请提供的用于共享学习的模型处理方法,首先,获得针对初始神经网络模型的多个候选模型更新值;其中,候选模型更新值为经过训练的神经网络模型与初始神经网络模型的差值,经过训练的神经网络模型为基于数据集对初始神经网络模型进行训练获得的神经网络模型;之后,根据差值的数据属性对多个候选模型更新值进行质量评估,获得多个候选模型更新值中的每个候选模型更新值的权重;再之后,对多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对初始神经网络模型进行更新的模型更新值;最终,基于对初始神经网络模型进行更新的模型更新值,对初始神经网络模型进行更新;其中,数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。由于本申请首先获得多个候选模型更新值,之后,通过进行质量评估,获得多个候选模型更新值中的每个候选模型更新值的权重,然后基于加权中位数机制确定对初始神经网络模型进行更新的模型更新值,一旦用户上传虚假的经过训练的神经网络模型,本申请的基于加权中位数机制能够避免采用虚假的经过训练的神经网络模型更新初始神经网络模型,因此,本申请的用于共享学习的模型处理方法解决了采用现有的模型更新方法最终使得更新的神经网络模型不符合真实情形的问题。
在上述的第二实施例中,提供了一种用于共享学习的模型处理方法,与之相对应的,本申请还提供一种用于共享学习的模型处理装置。如图4所示,其为本申请第三实施例提供的一种用于共享学习的模型处理装置的示意图。由于装置实施例基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。下述描述的装置实施例仅仅是示意性的。
本实施例提供一种用于共享学习的模型处理装置,包括:
候选模型更新值获得单元401,用于获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
质量评估单元402,用于根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
模型更新值确定单元403,用于对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
更新单元404,用于基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
可选的,所述候选模型更新值获得单元,具体用于:
将所述初始神经网络模型发送至用于提供针对初始神经网络模型的多个候选模型更新值的终端;
获得所述终端提供的针对初始神经网络模型的多个候选模型更新值。
可选的,所述终端通过以下方式提供针对初始神经网络模型的多个候选模型更新值:
获得多个数据集;
采用所述多个数据集分别对所述初始神经网络模型进行训练,获得多个经过训练的神经网络模型;
将所述多个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对初始神经网络模型的多个候选模型更新值。
可选的,还包括量化压缩单元;
所述量化压缩单元,具体用于:在所述终端提供所述针对初始神经网络模型的多个候选模型更新值之前,将所述针对初始神经网络模型的多个候选模型更新值中的参数值进行量化压缩,获得量化压缩的针对初始神经网络模型的多个候选模型更新值;其中,所述量化压缩是指对所述参数值映射为参数空间内的整数。
可选的,所述质量评估单元,具体用于:
统计所述候选模型更新值中的参数值出现频率;其中,所述统计所述候选模型更新值中的参数值出现频率是指,分别统计所述多个候选模型更新值中的每个候选模型更新值中的参数值出现频率;
根据所述参数值出现频率,获得参数之间的相关性;
基于所述参数之间的相关性,计算所述候选模型更新值的质量值;
对所述候选模型更新值的质量值进行归一化处理,获得所述多个候选模型更新值中的每个候选模型更新值的权重。
可选的,所述质量评估单元,具体用于:
将所述候选模型更新值中的参数值进行划分,获得第一参数值集合与第二参数值集合;其中,所述第一参数值集合与所述第二参数值集合不含有重合的参数值;
判断每个参数值、每个对比参数值以及每个参数值对,在所述第一参数值集合中的第一出现频率、第二出现频率以及第三出现频率;
判断每个参数值、每个对比参数值以及每个参数值对,在所述第二参数值集合中的第四出现频率、第五出现频率以及第六出现频率;
将所述第一出现频率、所述第二出现频率、所述第三出现频率、所述第四出现频率、所述第五出现频率以及所述第六出现频率,作为所述候选模型更新值中的参数值出现频率;
其中,所述对比参数值为对比候选模型更新值中的参数值。
可选的,所述质量评估单元,具体用于:
将参数值对在所述第一参数值集合中的第三出现频率,与参数值在所述第一参数值集合中的第一出现频率以及对比参数值在所述第一参数值集合中的第二出现频率的乘积做差,获得第一差值;
将参数值对在所述第二参数值集合中的第六出现频率,与参数值在所述第二参数值集合中的第四出现频率以及对比参数值在所述第二参数值集合中的第五出现频率的乘积做差,获得第二差值;
将所述第一差值与所述第二差值,作为所述参数之间的相关性。
可选的,所述质量评估单元,具体用于:
从所述候选模型更新值中的参数值中选取一部分参数组成奖赏参数值集合;
按照计算所述第二差值的方式计算既属于所述第一参数值集合又属于所述奖赏参数值集合中的参数值的第一参数相关性;
按照计算所述第二差值的方式计算属于所述第一参数值集合但不属于所述奖赏参数值集合中的两个参数值的第二参数相关性;
将所述第一参数相关性与所述第二参数相关性分别作为符号函数的自变量,获得第一函数值与第二函数值,并将所述第一函数值与所述第二函数值做差,获得第一参数的质量值,并将所述第一参数的质量值作为所述候选模型更新值的质量值。
可选的,所述质量评估单元,具体用于:
从所述候选模型更新值中的参数值中选取一部分参数组成奖赏参数值集合;
按照计算所述第一差值的方式计算既属于所述第二参数值集合又属于所述奖赏参数值集合中的参数值的第三参数相关性;
按照计算所述第一差值的方式计算属于所述第二参数值集合但不属于所述奖赏参数值集合中的两个参数值的第四参数相关性;
将所述第三参数相关性与所述第四参数相关性分别作为符号函数的自变量,获得第三函数值与第四函数值,并将所述第三函数值与所述第四函数值做差,获得第二参数的质量值,并将所述第二参数的质量值作为所述候选模型更新值的质量值。
可选的,所述质量评估单元,具体用于:
将所述候选模型更新值的质量值作为归一化函数的自变量,获得所述归一化函数的函数值;将所述归一化函数的函数值作为候选模型更新值的权重。
可选的,所述模型更新值确定单元,具体用于:
选取多个候选模型更新值带权重的中位数,将所述带权重的中位数作为对所述初始神经网络模型进行更新的模型更新值。
可选的,所述更新单元,具体用于:
将所述对所述初始神经网络模型进行更新的模型更新值与所述初始神经网络模型进行相加,获得更新后的神经网络模型。
可选的,还包括发送单元;
所述发送单元,具体用于:将所述更新后的神经网络模型提供给终端进行模型训练。
在上述的第二实施例中,提供了一种用于共享学习的模型处理方法。与之相对应的,本申请第四实施例还提供一种用于共享学习的模型处理系统。由于该系统的示意图基本类似第一实施例中的第一示意图与第二示意图,请继续参照图1-A与图1-B。由于本实施例的相关部分已经在第一实施例与第二实施例进行了相关描述,所以描述得比较简单,相关之处参见第一实施例与第二实施例的部分说明即可。下述描述的系统实施例仅仅是示意性的。
本实施例的用于共享学习的模型处理系统,包括:多个终端与云端;
所述多个终端获得所述云端发送的初始神经网络模型;所述多个终端分别基于各自的数据集对所述初始神经网络模型训练,获得多个经过训练的神经网络模型;将所述多个经过训练的神经网络模型中的每个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对所述初始神经网络模型的多个候选模型更新值;将所述针对所述初始神经网络模型的多个候选模型更新值提供给所述云端;
所述云端获得针对初始神经网络模型的多个候选模型更新值;根据差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
在上述的第二实施例与第四实施例中,分别提供了一种用于共享学习的模型处理方法与系统,与之相对应的,本申请第五实施例还提供一种用于共享学习的音频数据模型处理方法。由于本实施例的相关部分已经在第一实施例、第二实施例以及第四实施例进行了相关描述,所以描述得比较简单,相关之处参见第一实施例、第二实施例以及第四实施例的部分说明即可。下述描述的方法实施例仅仅是示意性的。
本实施例的用于共享学习的音频数据模型处理方法,包括:
多个终端获得云端发送的初始神经网络模型;分别基于各自的音频数据集对所述初始神经网络模型训练,获得多个经过训练的神经网络模型;将所述多个经过训练的神经网络模型中的每个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对所述初始神经网络模型的多个候选模型更新值;将所述针对所述初始神经网络模型的多个候选模型更新值提供给所述云端;
所述云端获得针对初始神经网络模型的多个候选模型更新值;根据差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新。
在上述的第二实施例与第四实施例中,分别提供了一种用于共享学习的模型处理方法与系统,与之相对应的,本申请第六实施例还提供一种用于共享学习的图像数据模型处理方法。由于本实施例的相关部分已经在第一实施例、第二实施例以及第四实施例进行了相关描述,所以描述得比较简单,相关之处参见第一实施例、第二实施例以及第四实施例的部分说明即可。下述描述的方法实施例仅仅是示意性的。
本实施例的用于共享学习的图像数据模型处理方法,包括:
多个终端获得云端发送的初始神经网络模型;分别基于各自的图像数据集对所述初始神经网络模型训练,获得多个经过训练的神经网络模型;将所述多个经过训练的神经网络模型中的每个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对所述初始神经网络模型的多个候选模型更新值;将所述针对所述初始神经网络模型的多个候选模型更新值提供给所述云端;
所述云端获得针对初始神经网络模型的多个候选模型更新值;根据差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新。
在上述的第二实施例中,提供了一种用于共享学习的模型处理方法,与之相对应的,本申请第七实施例给出了与第二实施例方法对应的电子设备。如图5所示,其示出了本实施例提供的电子设备的示意图。
本申请第七实施例提供一种电子设备,包括:
处理器501;
存储器502,用于存储计算机程序,该计算机程序被处理器运行,执行用于共享学习的模型处理方法,所述方法包括如下步骤:
获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
在上述的第二实施例中,提供了一种用于共享学习的模型处理方法,与之相对应的,本申请第八实施例给出了与第二实施例方法对应的计算机存储介质。
本申请第八实施例提供一种计算机存储介质,所述计算机存储介质存储有计算机程序,该计算机程序被处理器运行,执行用于共享学习的模型处理方法,所述方法包括如下步骤:
获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
本申请虽然以较佳实施例公开如上,但其并不是用来限定本申请,任何本领域技术人员在不脱离本申请的精神和范围内,都可以做出可能的变动和修改,因此本申请的保护范围应当以本申请权利要求所界定的范围为准。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
1、计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读存储媒体(non-transitorycomputer readable storage media),如调制的数据信号和载波。
2、本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

Claims (19)

1.一种用于共享学习的模型处理方法,包括:
获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
2.根据权利要求1所述的方法,所述获得针对初始神经网络模型的多个候选模型更新值,包括:
将所述初始神经网络模型发送至用于提供针对初始神经网络模型的多个候选模型更新值的终端;
获得所述终端提供的针对初始神经网络模型的多个候选模型更新值。
3.根据权利要求2所述的方法,所述终端通过以下方式提供针对初始神经网络模型的多个候选模型更新值:
获得多个数据集;
采用所述多个数据集分别对所述初始神经网络模型进行训练,获得多个经过训练的神经网络模型;
将所述多个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对初始神经网络模型的多个候选模型更新值。
4.根据权利要求3所述的方法,所述终端提供所述针对初始神经网络模型的多个候选模型更新值之前,还包括将所述针对初始神经网络模型的多个候选模型更新值中的参数值进行量化压缩,获得量化压缩的针对初始神经网络模型的多个候选模型更新值;其中,所述量化压缩是指对所述参数值映射为参数空间内的整数。
5.根据权利要求1所述的方法,所述对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重,包括:
统计所述候选模型更新值中的参数值出现频率;其中,所述统计所述候选模型更新值中的参数值出现频率是指,分别统计所述多个候选模型更新值中的每个候选模型更新值中的参数值出现频率;
根据所述参数值出现频率,获得参数之间的相关性;
基于所述参数之间的相关性,计算所述候选模型更新值的质量值;
对所述候选模型更新值的质量值进行归一化处理,获得所述多个候选模型更新值中的每个候选模型更新值的权重。
6.根据权利要求5所述的方法,所述统计所述候选模型更新值中的参数值出现频率,包括:
将所述候选模型更新值中的参数值进行划分,获得第一参数值集合与第二参数值集合;其中,所述第一参数值集合与所述第二参数值集合不含有重合的参数值;
判断每个参数值、每个对比参数值以及每个参数值对,在所述第一参数值集合中的第一出现频率、第二出现频率以及第三出现频率;
判断每个参数值、每个对比参数值以及每个参数值对,在所述第二参数值集合中的第四出现频率、第五出现频率以及第六出现频率;
将所述第一出现频率、所述第二出现频率、所述第三出现频率、所述第四出现频率、所述第五出现频率以及所述第六出现频率,作为所述候选模型更新值中的参数值出现频率;
其中,所述对比参数值为对比候选模型更新值中的参数值。
7.根据权利要求6所述的方法,所述根据所述参数值出现频率,获得参数之间的相关性,包括:
将参数值对在所述第一参数值集合中的第三出现频率,与参数值在所述第一参数值集合中的第一出现频率以及对比参数值在所述第一参数值集合中的第二出现频率的乘积做差,获得第一差值;
将参数值对在所述第二参数值集合中的第六出现频率,与参数值在所述第二参数值集合中的第四出现频率以及对比参数值在所述第二参数值集合中的第五出现频率的乘积做差,获得第二差值;
将所述第一差值与所述第二差值,作为所述参数之间的相关性。
8.根据权利要求7所述的方法,所述基于所述参数之间的相关性,计算所述候选模型更新值的质量值,包括:
从所述候选模型更新值中的参数值中选取一部分参数组成奖赏参数值集合;
按照计算所述第二差值的方式计算既属于所述第一参数值集合又属于所述奖赏参数值集合中的参数值的第一参数相关性;
按照计算所述第二差值的方式计算属于所述第一参数值集合但不属于所述奖赏参数值集合中的两个参数值的第二参数相关性;
将所述第一参数相关性与所述第二参数相关性分别作为符号函数的自变量,获得第一函数值与第二函数值,并将所述第一函数值与所述第二函数值做差,获得第一参数的质量值,并将所述第一参数的质量值作为所述候选模型更新值的质量值。
9.根据权利要求7所述的方法,所述基于所述参数之间的相关性,计算所述候选模型更新值的质量值,包括:
从所述候选模型更新值中的参数值中选取一部分参数组成奖赏参数值集合;
按照计算所述第一差值的方式计算既属于所述第二参数值集合又属于所述奖赏参数值集合中的参数值的第三参数相关性;
按照计算所述第一差值的方式计算属于所述第二参数值集合但不属于所述奖赏参数值集合中的两个参数值的第四参数相关性;
将所述第三参数相关性与所述第四参数相关性分别作为符号函数的自变量,获得第三函数值与第四函数值,并将所述第三函数值与所述第四函数值做差,获得第二参数的质量值,并将所述第二参数的质量值作为所述候选模型更新值的质量值。
10.根据权利要求5所述的方法,所述对所述候选模型更新值的质量值进行归一化处理,获得所述多个候选模型更新值中的每个候选模型更新值的权重,包括:
将所述候选模型更新值的质量值作为归一化函数的自变量,获得所述归一化函数的函数值;将所述归一化函数的函数值作为候选模型更新值的权重。
11.根据权利要求1所述的方法,所述对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值,包括:
选取多个候选模型更新值的带权重的中位数,将所述带权重的中位数作为对所述初始神经网络模型进行更新的模型更新值。
12.根据权利要求1所述的方法,所述基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新,包括:
将所述对所述初始神经网络模型进行更新的模型更新值与所述初始神经网络模型进行相加,获得更新后的神经网络模型。
13.根据权利要求12所述的方法,还包括:将所述更新后的神经网络模型提供给终端进行模型训练。
14.一种用于共享学习的模型处理装置,包括:
候选模型更新值获得单元,用于获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
质量评估单元,用于根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
模型更新值确定单元,用于对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
更新单元,用于基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
15.一种用于共享学习的模型处理系统,包括:多个终端与云端;
所述多个终端获得所述云端发送的初始神经网络模型;所述多个终端分别基于各自的数据集对所述初始神经网络模型训练,获得多个经过训练的神经网络模型;将所述多个经过训练的神经网络模型中的每个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对所述初始神经网络模型的多个候选模型更新值;将所述针对所述初始神经网络模型的多个候选模型更新值提供给所述云端;
所述云端获得针对初始神经网络模型的多个候选模型更新值;根据差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
16.一种用于共享学习的音频数据模型处理方法,包括:
多个终端获得云端发送的初始神经网络模型;分别基于各自的音频数据集对所述初始神经网络模型训练,获得多个经过训练的神经网络模型;将所述多个经过训练的神经网络模型中的每个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对所述初始神经网络模型的多个候选模型更新值;将所述针对所述初始神经网络模型的多个候选模型更新值提供给所述云端;
所述云端获得针对初始神经网络模型的多个候选模型更新值;根据差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新。
17.一种用于共享学习的图像数据模型处理方法,包括:
多个终端获得云端发送的初始神经网络模型;分别基于各自的图像数据集对所述初始神经网络模型训练,获得多个经过训练的神经网络模型;将所述多个经过训练的神经网络模型中的每个经过训练的神经网络模型分别与所述初始神经网络模型做差,获得针对所述初始神经网络模型的多个候选模型更新值;将所述针对所述初始神经网络模型的多个候选模型更新值提供给所述云端;
所述云端获得针对初始神经网络模型的多个候选模型更新值;根据差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新。
18.一种电子设备,包括:
处理器;
存储器,用于存储计算机程序,该计算机程序被处理器运行,执行用于共享学习的模型处理方法,所述方法包括如下步骤:
获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
19.一种计算机存储介质,所述计算机存储介质存储有计算机程序,该计算机程序被处理器运行,执行用于共享学习的模型处理方法,所述方法包括如下步骤:
获得针对初始神经网络模型的多个候选模型更新值;其中,所述候选模型更新值为经过训练的神经网络模型与所述初始神经网络模型的差值,所述经过训练的神经网络模型为基于数据集对所述初始神经网络模型进行训练获得的神经网络模型;
根据所述差值的数据属性对所述多个候选模型更新值进行质量评估,获得所述多个候选模型更新值中的每个候选模型更新值的权重;
对所述多个候选模型更新值中的每个候选模型更新值采用带权重的中位数机制,确定对所述初始神经网络模型进行更新的模型更新值;
基于所述对所述初始神经网络模型进行更新的模型更新值,对所述初始神经网络模型进行更新;
其中,所述数据集的数据为终端的音频数据、图像数据、用户行为数据或终端传感器数据中的至少一种。
CN202010124814.1A 2020-02-27 2020-02-27 用于共享学习的模型处理方法、系统、装置以及电子设备 Active CN113313245B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010124814.1A CN113313245B (zh) 2020-02-27 2020-02-27 用于共享学习的模型处理方法、系统、装置以及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010124814.1A CN113313245B (zh) 2020-02-27 2020-02-27 用于共享学习的模型处理方法、系统、装置以及电子设备

Publications (2)

Publication Number Publication Date
CN113313245A true CN113313245A (zh) 2021-08-27
CN113313245B CN113313245B (zh) 2023-12-22

Family

ID=77370396

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010124814.1A Active CN113313245B (zh) 2020-02-27 2020-02-27 用于共享学习的模型处理方法、系统、装置以及电子设备

Country Status (1)

Country Link
CN (1) CN113313245B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116595356A (zh) * 2023-07-17 2023-08-15 腾讯科技(深圳)有限公司 时序信号预测方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030191728A1 (en) * 2002-03-27 2003-10-09 Kulkarni Bhaskar Dattatray Performance of artificial neural network models in the presence of instrumental noise and measurement errors
US20150138078A1 (en) * 2013-11-18 2015-05-21 Eyal Krupka Hand pose recognition using boosted look up tables
US20160080908A1 (en) * 2014-09-11 2016-03-17 Google Inc. Data Driven Evaluation and Rejection of Trained Gaussian Process-Based Wireless Mean and Standard Deviation Models
WO2018189279A1 (en) * 2017-04-12 2018-10-18 Deepmind Technologies Limited Black-box optimization using neural networks
US20190311298A1 (en) * 2018-04-09 2019-10-10 Here Global B.V. Asynchronous parameter aggregation for machine learning
GB201913412D0 (en) * 2019-09-17 2019-10-30 Canon Res Centre France Method, device, and computer program for setting parameters values of a video source device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030191728A1 (en) * 2002-03-27 2003-10-09 Kulkarni Bhaskar Dattatray Performance of artificial neural network models in the presence of instrumental noise and measurement errors
US20150138078A1 (en) * 2013-11-18 2015-05-21 Eyal Krupka Hand pose recognition using boosted look up tables
US20160080908A1 (en) * 2014-09-11 2016-03-17 Google Inc. Data Driven Evaluation and Rejection of Trained Gaussian Process-Based Wireless Mean and Standard Deviation Models
WO2018189279A1 (en) * 2017-04-12 2018-10-18 Deepmind Technologies Limited Black-box optimization using neural networks
US20190311298A1 (en) * 2018-04-09 2019-10-10 Here Global B.V. Asynchronous parameter aggregation for machine learning
GB201913412D0 (en) * 2019-09-17 2019-10-30 Canon Res Centre France Method, device, and computer program for setting parameters values of a video source device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张仲伟;曹雷;陈希亮;寇大磊;宋天挺;: "基于神经网络的知识推理研究综述", 计算机工程与应用, no. 12 *
李玺;查宇飞;张天柱;崔振;左旺孟;侯志强;卢湖川;王菡子;: "深度学习的目标跟踪算法综述", 中国图象图形学报, no. 12 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116595356A (zh) * 2023-07-17 2023-08-15 腾讯科技(深圳)有限公司 时序信号预测方法、装置、电子设备及存储介质
CN116595356B (zh) * 2023-07-17 2023-09-22 腾讯科技(深圳)有限公司 时序信号预测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN113313245B (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
US11132624B2 (en) Model integration method and device
CN112132277A (zh) 联邦学习模型训练方法、装置、终端设备及存储介质
CN110262819A (zh) 一种联邦学习的模型参数更新方法及装置
CN111932269B (zh) 设备信息处理方法及装置
WO2021135715A1 (zh) 一种图像压缩方法及装置
CN111352965A (zh) 序列挖掘模型的训练方法、序列数据的处理方法及设备
CN108322317A (zh) 一种账号识别关联方法及服务器
CN114221877A (zh) 负载预测方法、装置、设备和计算机可读介质
CN114021188A (zh) 一种联邦学习协议交互安全验证方法、装置及电子设备
CN113313245B (zh) 用于共享学习的模型处理方法、系统、装置以及电子设备
CN114049530A (zh) 混合精度神经网络量化方法、装置及设备
CN113096055A (zh) 图像生成模型的训练方法、装置、电子设备及存储介质
CN112668723A (zh) 一种机器学习方法及系统
US11829390B2 (en) Recipe construction system, recipe construction method, computer readable recording media with stored programs, and non-transitory computer program product
CN116245422A (zh) 外部数据质量的评价方法、装置和电子设备
CN114339252A (zh) 一种数据压缩方法及装置
Yong et al. Complex number‐based image quality assessment using singular value decomposition
Luo et al. Subjective score predictor: a new evaluation function of distorted image quality
CN113657623A (zh) 电力设备状态诊断效果确定方法、装置、终端及存储介质
CN115730844A (zh) 价值评价方法、装置、计算机设备和存储介质
CN117474774A (zh) 高动态图像处理方法、装置、电子设备及可读存储介质
CN114510586A (zh) 视频类型的评价方法、装置、计算机设备和存储介质
Ding et al. Blind image quality assessment based on fractal description of natural scenes
CN115034884A (zh) 交易数据处理方法及装置
CN116821842A (zh) 特征门控网络训练及特征融合方法、装置以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant