CN112329557A - 模型的应用方法、装置、计算机设备及存储介质 - Google Patents

模型的应用方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN112329557A
CN112329557A CN202011133169.6A CN202011133169A CN112329557A CN 112329557 A CN112329557 A CN 112329557A CN 202011133169 A CN202011133169 A CN 202011133169A CN 112329557 A CN112329557 A CN 112329557A
Authority
CN
China
Prior art keywords
model
parameter
trained
local
local model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011133169.6A
Other languages
English (en)
Inventor
李伟
张帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Qulian Technology Co Ltd
Original Assignee
Hangzhou Qulian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Qulian Technology Co Ltd filed Critical Hangzhou Qulian Technology Co Ltd
Priority to CN202011133169.6A priority Critical patent/CN112329557A/zh
Publication of CN112329557A publication Critical patent/CN112329557A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/64Protecting data integrity, e.g. using checksums, certificates or signatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Security & Cryptography (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Bioethics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种模型的应用方法,应用于人工智能技术领域,用于解决目前目标识别模型的应用方法使得部署在多端设备的目标识别模型难以在训练后达到一致以及训练不及时的技术问题。本发明提供的方法包括:通过深度神经网络对携带有标注信息的多个样本图片进行特征提取;当待训练的本地模型不为首次训练时,获取该待训练的本地模型的初始参数;通过对该样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数;计算该初始参数与该当前参数的参数变化量;将该参数变化量发送至服务器,供该服务器根据该参数变化量对全局模型进行更新。

Description

模型的应用方法、装置、计算机设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种模型的应用方法、装置、计算机设备及存储介质。
背景技术
目前,人脸识别相关的技术广泛应用在边缘计算设备上,用于身份验证。其实现手段在于通过有限的训练样本对识别模型进行训练,利用训练好的模型对待识别的图片进行识别。
随着目标识别技术的应用范围趋于向多端设备部署发展,目前这种目标识别模型存在的问题主要在于模型训练延迟。当边缘计算设备损坏或网络传输等原因造成的延迟时,会导致边缘终端设备上的样本数据不能及时的传输,进一步导致目标识别模型不能及时的训练。目前的目标识别模型的应用方法使得部署在多端设备的目标识别模型难以在训练后达到一致,未考虑到训练后模型的完整性。
发明内容
本发明实施例提供一种模型的应用方法、装置、计算机设备及存储介质,以解决目前目标识别模型的应用方法使得部署在多端设备的目标识别模型难以在训练后达到一致以及训练不及时的技术问题。
一种模型的应用方法,该方法应用于终端设备,该方法包括:
通过深度神经网络对携带有标注信息的多个样本图片进行特征提取;
当待训练的本地模型不为首次训练时,获取该待训练的本地模型的初始参数;
通过对该样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数;
计算该初始参数与该当前参数的参数变化量;
将该参数变化量发送至服务器,供该服务器根据该参数变化量对全局模型进行更新。
一种模型的第一应用装置,包括:
特征提取模块,用于通过深度神经网络对携带有标注信息的多个样本图片进行特征提取;
初始参数获取模块,用于当待训练的本地模型不为首次训练时,获取该待训练的本地模型的初始参数;
训练模块,用于通过对该样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数;
计算模块,用于计算该初始参数与该当前参数的参数变化量;
参数发送模块,用于将该参数变化量发送至服务器,供该服务器根据该参数变化量对全局模型进行更新。
一种模型的第二应用装置,包括:
参数接收模块,用于接收终端设备发送的本地模型的参数变化量;
当前参数获取模块,用于获取全局模型的当前参数;
更新模块,用于当该全局模型不为首次训练时,通过该参数变化量对该全局模型的当前参数进行更新。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述模型的应用方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述模型的应用方法的步骤。
本发明提出的模型的应用方法、装置、计算机设备及存储介质,在终端设备端通过深度神经网络对携带有标注信息的多个样本图片进行特征提取,当本地模型不为首次训练时,获取该本地模型的初始参数,并通过对该样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数,计算该初始参数与该当前参数的参数变化量,将该参数变化量发送至服务器,使得该服务器能够根据该参数变化量对全局模型进行更新,使得终端设备采集到新的训练样本,对部署在终端设备的模型进行训练时,能够将训练结果同步到服务器端,使得对于部署在多端设备的模型,在其中一个终端对模型进行训练后,部署在其他设备上对应的模型能够达到一致并及时的对模型进行更新训练。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中模型的应用方法的一应用环境示意图;
图2是本发明一实施例中模型的应用方法的另一应用环境示意图;
图3是本发明一实施例中应用于终端设备的模型的应用方法的一流程图;
图4是本发明一实施例中应用于服务器的模型的应用方法的一流程图;
图5是本发明一实施例中模型在不同设备上的部署示意图;
图6是本发明一实施例中模型的第一应用装置的结构示意图;
图7是本发明一实施例中模型的第二应用装置的结构示意图;
图8是本发明一实施例中终端设备的一示意图;
图9是本发明一实施例中服务器的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请提供的模型的应用方法,可应用在如图1的应用环境中,其中,该终端设备通过网络与服务器进行通信。其中,该终端设备包括但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图3所示,提供一种模型的应用方法,以该方法应用在图1中的终端设备为例进行说明,该模型的应用方法包括如下步骤S101至S105。
S101、通过深度神经网络对携带有标注信息的多个样本图片进行特征提取。
其中,可以通过人工对该样本图片进行标注,标注的内容包括但不限于人脸区域以及该人脸对应的用户标识、对图片中目标区域进行标注以及该目标区域所属的类别等。具体标注的内容根据模型训练的需要而定。
作为可选地,可以通过本地设备录入人脸图像和对应的标签。
进一步地,该深度神经网络可以是卷积神经网络。
其中,该卷积神经网络采用五层抗噪声自动编码器,每层的噪声比例为0.1,每层的输入为前一层的隐含层信息,终得到的隐含层信息与原始信息维度相同。
S102、当待训练的本地模型不为首次训练时,获取该待训练的本地模型的初始参数。
该本地模型可以是人脸识别模型、猪脸识别模型、文本分类模型、目标识别模型等等。
当待训练的本地模型为首次训练时,该步骤可以省略。当待训练的本地模型不为首次训练时,获取的该待训练的本地模型的初始参数为上一次训练得到的该模型的网络参数。
S103、通过对该样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数。
当该待训练的本地模型为首次训练时,该步骤具体为通过对所有的样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数;当该待训练的本地模型不为首次训练时,该步骤具体为通过对新获取的样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数。
在其中一个实施例中,上述标注信息包括该样本图片所属的类别,该通过对该样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数的步骤包括:
将提取的该样本图片的特征输入至待训练的本地模型,得到该样本图片的预测结果;
当该预测结果与该样本图片所属的类别不相符时,调整该本地模型的参数,循环将该样本图片的特征输入该本地模型至本步骤,直至该预测结果与该样本图片所属的类别相符,得到训练好的该本地模型的当前参数。
S104、计算该初始参数与该当前参数的参数变化量。
在其中一个实施例中,该参数变化量可以通过当前参数减去初始参数得到。当该待训练的模型不为首次训练时,该步骤可以省略。
S105、将该参数变化量发送至服务器,供该服务器根据该参数变化量对全局模型进行更新。
本实施例通过向服务器上传参数/参数变化量,而不是直接上传样本图片,可以避免用户隐私泄露,例如在人脸识别系统采集了大量的人脸图片和对应的身份信息,直接上传用户样本图片容易泄露用户的个人隐私。
在其中一个实施例中,服务器对全局模型进行更新的步骤包括:
获取所述全局模型的当前参数;
将所述全局模型的当前参数加上所述参数变化量,得到所述全局模型的最新参数,通过所述最新参数对所述全局模型进行更新。
本实施例提出的应用于终端设备的模型的应用方法通过深度神经网络对携带有标注信息的多个样本图片进行特征提取,当本地模型不为首次训练时,获取该本地模型的初始参数,并通过对该样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数,计算该初始参数与该当前参数的参数变化量,将该参数变化量发送至服务器,使得该服务器能够根据该参数变化量对全局模型进行更新,使得终端设备采集到新的训练样本,对部署在终端设备的模型进行训练时,能够将训练结果同步到服务器端,使得对于部署在多端设备的模型,在其中一个终端对模型进行训练后,部署在其他设备上对应的模型能够达到一致并及时的对模型进行更新训练。能够解决边缘计算设备可能会损坏、网络传输会延迟,导致边缘计算设备上的数据、模型不能及时进行传输和训练的技术问题。
进一步地,当该待训练的模型为首次训练时,该应用于终端设备的模型的应用具体包括:
通过对所有的样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数;
将该完整的当前参数发送至服务器,供所述服务器根据该当前参数对全局模型进行更新。
作为可选地,该模型的应用方法还包括:
根据该本地模型的当前参数及该本地模型的当前参数的训练时间生成该本地模型的哈希值,该哈希值用于确定该训练得到的本地模型的身份标识;
将该本地模型的哈希值存储在区块链中。
其中,该模型的应用方法还可应用在如图2的应用环境中,其中,区块链由若干个相互间能够进行通信的节点组成,每个节点可以看做是一个块存储,各块存储用于保存数据,每一个数据节点之间都包含所有数据,所述块存储数据具备完整历史记录,可快速复原拓展,区域链分为公有链、私有链和联盟链,公有链是任何节点都是开放的,每个人都可以参与到这个区块链计算,而且任何人都可以下载获得完整区块链数据,私有链是有些区块链并不希望这个系统任何人都可参与,不对外公开,适用于特定机构的内部数据管理与审计或开放测试等,联盟链是参与每个节点的权限都完全对等,大家在不需要完全互信的情况下就可以实现数据的可信交换,联盟链的各个节点通常有与之对应的实体机构组织,通过授权后才能加入与退出网络,在使用整个区块链备份系统的过程中,需使用数字签字,数字签字设计一个哈希函数、发送者的公钥、发送者的私钥,区块链具备完整的分布式存储特性,其实是更加庞大的网络数据存储同时使用了“哈希算法”形式的数据结构保存基础数据。
本实施例将本地模型的哈希值存储在区块链中可以利用区块链的特性提高数据的安全性,使得边缘终端设备和服务器之间进行大量的数据传输时,数据不容易被捕获和篡改。
进一步地,该模型的应用方法还包括:
接收到待识别的图片时,从该区块链中获取该本地模型的哈希值;
从该服务器获取该全局模型;
从该区块链中获取该全局模型的哈希值;
当该本地模型的哈希值与该全局模型的哈希值相同时,通过对应的全局模型对该待识别的图片进行识别。
本实施例提出了通过存储在区块链的哈希值、本地模型及全局模型对图片进行识别的方法,当该本地模型的哈希值与该全局模型的哈希值相同时,表示该本地模型哈希值对应的全局模型对可以对该图片进行识别的正确的模型。
图4是本发明一实施例中应用于服务器的模型的应用方法的一流程图,根据本发明的另一实施例还提供了一种应用于服务器的模型的应用方法,如图4所示,该方法包括以下步骤S401至S403。
S401、接收终端设备发送的本地模型的参数变化量。
其中,该步骤进一步包括,当该全局模型不为首次训练时,接收终端设备发送的本地模型的参数变化量并执行下面的步骤。
S402、获取全局模型的当前参数。
在其中一个实施例中,该当前参数为该全局模型上一次训练或者更新得到的最新的参数。
S403、当该全局模型不为首次训练时,通过该参数变化量对该全局模型的当前参数进行更新。
在其中一个实施例中,可以通过将所述全局模型的当前参数加上所述参数变化量,得到所述全局模型的最新参数,通过所述最新参数对所述全局模型进行更新。
其中,当该全局模型为首次训练时,该方法还包括:
将提取的样本图片的特征输入至待训练的全局模型,得到该样本图片的预测结果;
当该预测结果与该样本图片所属的类别不相符时,调整该全局模型的参数,循环将该样本图片的特征输入该全局模型至本步骤,直至该预测结果与该样本图片所属的类别相符,得到训练好的该全局模型的当前参数。
以人脸识别模型为例,本实施例通过设计人脸识别的增量模型,将本地模型与全局模型的训练统一,即使部分边缘计算设备没有成功上传本地模型,仍然可以进行全局模型的训练,且将模型保存在区块链中,可以保证安全不被篡改,边缘终端设备只上传模型,并不上传原始的人脸图像等信息,还可以保障用户隐私。
图5是本发明一实施例中模型在不同设备上的部署示意图,如图5所示,终端设备包括图5中的设备1、设备2、…、设备N,设备1至设备N分别用于通过各自设备上采集的图片进行特征提取,然后进行本地模型的训练,各终端设备在训练得到本地模型的参数或者本地模型的参数变化量时,将该本地模型的参数或者参数变化量发送至服务器,供该服务器根据接收的参数或参数变化量对服务器上的全局模型进行更新训练。具体地,当终端设备对本地模型进行首次训练时,向该服务器上传完整的网络参数,当该终端设备对本地模型进行非首次训练时,该终端设备向服务器上传参数变化量,供该服务器对位于该服务器上的全局模型进行更新。
作为可选地,该应用于服务器的模型的应用方法还包括:
根据该全局模型的当前参数以及更新该全局模型的当前参数的时间生成该全局模型的哈希值;
将该全局模型的哈希值存储在该区块链中。
本实施例提出的模型的应用方法在服务器端通过接收终端设备发送的本地模型的参数变化量,然后获取全局模型的当前参数,当该全局模型不为首次训练时,通过该参数变化量对该全局模型的当前参数进行更新,使得该服务器能够根据该参数变化量对全局模型进行更新,使得终端设备采集到新的训练样本,对部署在终端设备的模型进行训练时,能够将训练结果同步到服务器端,使得对于部署在多端设备的模型,在其中一个终端对模型进行训练后,部署在其他设备上对应的模型能够达到一致并及时的对模型进行更新训练,能够解决边缘计算设备可能会损坏、网络传输会延迟,导致边缘计算设备上的数据、模型不能及时进行传输和训练的技术问题。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种模型的第一应用装置,该模型的第一应用装置与上述实施例中应用于终端设备的模型的应用方法一一对应。如图6所示,该模型的第一应用装置100包括特征提取模块11、初始参数获取模块12、训练模块13、计算模块14和参数发送模块15。各功能模块详细说明如下:
特征提取模块11,用于通过深度神经网络对携带有标注信息的多个样本图片进行特征提取;
初始参数获取模块12,用于当待训练的本地模型不为首次训练时,获取该待训练的本地模型的初始参数;
训练模块13,用于通过对该样本图片提取的特征对该本地模型进行训练,得到该本地模型的当前参数;
计算模块14,用于计算该初始参数与该当前参数的参数变化量;
参数发送模块15,用于将该参数变化量发送至服务器,供该服务器根据该参数变化量对全局模型进行更新。
作为可选地,该标注信息包括该样本图片所属的类别,该训练模块13包括:
预测单元,用于将提取的该样本图片的特征输入至待训练的本地模型,得到该样本图片的预测结果;
训练单元,用于当该预测结果与该样本图片所属的类别不相符时,调整该本地模型的参数,循环将该样本图片的特征输入该本地模型至本步骤,直至该预测结果与该样本图片所属的类别相符,得到训练好的该本地模型的当前参数。
进一步地,该模型的第一应用装置100还包括:
第一哈希值生成模块,用于根据该本地模型的当前参数及该本地模型的当前参数的训练时间生成该本地模型的哈希值,该哈希值用于确定该训练得到的本地模型的身份标识;
第一保存模块,用于将该本地模型的哈希值存储在区块链中。
作为可选地,该模型的第一应用装置100还包括:
第一哈希值获取模块,用于接收到待识别的图片时,从该区块链中获取该本地模型的哈希值;
全局模型获取模块,用于从该服务器获取该全局模型;
第二哈希值获取模块,用于从该区块链中获取该全局模型的哈希值;
识别模块,用于当该本地模型的哈希值与该全局模型的哈希值相同时,通过对应的全局模型对该待识别的图片进行识别。
在一实施例中,提供一种模型的第二应用装置,该模型的第二应用装置与上述实施例中应用于服务器的模型的应用方法一一对应。如图7所示,该模型的第二应用装置200包括参数接收模块21、当前参数获取模块22和更新模块23。各功能模块详细说明如下:
参数接收模块21,用于接收终端设备发送的本地模型的参数变化量;
当前参数获取模块22,用于获取全局模型的当前参数;
更新模块23,用于当该全局模型不为首次训练时,通过该参数变化量对该全局模型的当前参数进行更新。
进一步地,该模型的第二应用装置200还包括:
第二哈希值生成模块,用于根据该全局模型的当前参数以及更新该全局模型的当前参数的时间生成该全局模型的哈希值;
第二保存模块,用于将该全局模型的哈希值存储在该区块链中。
其中上述模块/单元中的“第一”和“第二”的意义仅在于将不同的模块/单元加以区分,并不用于限定哪个模块/单元的优先级更高或者其它的限定意义。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本申请中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式。
关于模型的第二应用装置的具体限定可以参见上文中对于应用于服务器的模型的应用方法的限定,在此不再赘述。上述模型的第二应用装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端设备,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部服务器通过网络连接通信。该计算机程序被处理器执行时以实现一种应用于终端设备的模型的应用方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中应用于终端设备的模型的应用方法的步骤,例如图3所示的步骤101至步骤105及该方法的其它扩展和相关步骤的延伸。或者,处理器执行计算机程序时实现上述实施例中模型的第一应用装置的各模块/单元的功能,例如图6所示模块11至模块15的功能。为避免重复,这里不再赘述。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储应用于服务器的模型的应用方法中涉及到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种应用于服务器的模型的应用方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中应用于服务器的方法的步骤,例如图4所示的步骤401至步骤403及该方法的其它扩展和相关步骤的延伸。或者,处理器执行计算机程序时实现上述实施例中模型的第二应用装置的各模块/单元的功能,例如图7所示模块21至模块23的功能。为避免重复,这里不再赘述。
所述处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述计算机装置的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述计算机装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、视频数据等)等。
所述存储器可以集成在所述处理器中,也可以与所述处理器分开设置。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中应用于终端设备的模型的应用方法的步骤,例如图3所示的步骤101至步骤105及该方法的其它扩展和相关步骤的延伸。或者,计算机程序被处理器执行时实现上述实施例中模型的第一应用装置的各模块/单元的功能,例如图6所示模块11至模块15的功能。为避免重复,这里不再赘述。
在另一实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中应用于服务器的模型的应用方法的步骤,例如图4所示的步骤401至步骤403及该方法的其它扩展和相关步骤的延伸。或者,计算机程序被处理器执行时实现上述实施例中模型的第二应用装置的各模块/单元的功能,例如图7所示模块21至模块23的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种模型的应用方法,所述方法应用于终端设备,其特征在于,所述方法包括:
通过深度神经网络对携带有标注信息的多个样本图片进行特征提取;
当待训练的本地模型不为首次训练时,获取所述待训练的本地模型的初始参数;
通过对所述样本图片提取的特征对所述本地模型进行训练,得到所述本地模型的当前参数;
计算所述初始参数与所述当前参数的参数变化量;
将所述参数变化量发送至服务器,供所述服务器根据所述参数变化量对全局模型进行更新。
2.根据权利要求1所述的模型的应用方法,其特征在于,所述标注信息包括所述样本图片所属的类别,所述通过对所述样本图片提取的特征对所述本地模型进行训练,得到所述本地模型的当前参数的步骤包括:
将提取的所述样本图片的特征输入至待训练的本地模型,得到所述样本图片的预测结果;
当所述预测结果与所述样本图片所属的类别不相符时,调整所述本地模型的参数,循环将所述样本图片的特征输入所述本地模型至本步骤,直至所述预测结果与所述样本图片所属的类别相符,得到训练好的所述本地模型的当前参数。
3.根据权利要求1所述的模型的应用方法,其特征在于,所述方法还包括:
根据所述本地模型的当前参数及所述本地模型的当前参数的训练时间生成所述本地模型的哈希值;
将所述本地模型的哈希值存储在区块链中。
4.根据权利要求3所述的模型的应用方法,其特征在于,所述方法还包括:
接收到待识别的图片时,从所述区块链中获取所述本地模型的哈希值;
从所述服务器获取所述全局模型;
从所述区块链中获取所述全局模型的哈希值;
当所述本地模型的哈希值与所述全局模型的哈希值相同时,通过对应的全局模型对所述待识别的图片进行识别。
5.一种模型的应用方法,所述方法应用于服务器,其特征在于,所述方法包括:
接收终端设备发送的本地模型的参数变化量;
获取全局模型的当前参数;
当所述全局模型不为首次训练时,通过所述参数变化量对所述全局模型的当前参数进行更新。
6.根据权利要求5所述的模型的应用方法,其特征在于,所述方法还包括:
根据所述全局模型的当前参数以及更新所述全局模型的当前参数的时间生成所述全局模型的哈希值;
将所述全局模型的哈希值存储在所述区块链中。
7.一种模型的第一应用装置,其特征在于,包括:
特征提取模块,用于通过深度神经网络对携带有标注信息的多个样本图片进行特征提取;
初始参数获取模块,用于当待训练的本地模型不为首次训练时,获取所述待训练的本地模型的初始参数;
训练模块,用于通过对所述样本图片提取的特征对所述本地模型进行训练,得到所述本地模型的当前参数;
计算模块,用于计算所述初始参数与所述当前参数的参数变化量;
参数发送模块,用于将所述参数变化量发送至服务器,供所述服务器根据所述参数变化量对全局模型进行更新。
8.一种模型的第二应用装置,其特征在于,包括:
参数接收模块,用于接收终端设备发送的本地模型的参数变化量;
当前参数获取模块,用于获取全局模型的当前参数;
更新模块,用于当所述全局模型不为首次训练时,通过所述参数变化量对所述全局模型的当前参数进行更新。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述模型的应用方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述模型的应用方法的步骤。
CN202011133169.6A 2020-10-21 2020-10-21 模型的应用方法、装置、计算机设备及存储介质 Pending CN112329557A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011133169.6A CN112329557A (zh) 2020-10-21 2020-10-21 模型的应用方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011133169.6A CN112329557A (zh) 2020-10-21 2020-10-21 模型的应用方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN112329557A true CN112329557A (zh) 2021-02-05

Family

ID=74310565

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011133169.6A Pending CN112329557A (zh) 2020-10-21 2020-10-21 模型的应用方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN112329557A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113537400A (zh) * 2021-09-14 2021-10-22 浙江捷瑞电力科技有限公司 一种基于分支神经网络的边缘计算节点的分配与退出方法
CN114782758A (zh) * 2022-06-21 2022-07-22 平安科技(深圳)有限公司 图像处理模型训练方法、系统、计算机设备及存储介质
CN116170239A (zh) * 2023-04-26 2023-05-26 成都天用唯勤科技股份有限公司 多中心化的数据处理方法、系统以及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815344A (zh) * 2019-01-29 2019-05-28 华南师范大学 基于参数共享的网络模型训练系统、方法、装置和介质
CN110197285A (zh) * 2019-05-07 2019-09-03 清华大学 基于区块链的安全协作深度学习方法及装置
CN110516804A (zh) * 2019-08-22 2019-11-29 广东浪潮大数据研究有限公司 模型训练方法及装置
CN111275188A (zh) * 2020-01-20 2020-06-12 深圳前海微众银行股份有限公司 横向联邦学习系统优化方法、设备及可读存储介质
WO2020168761A1 (zh) * 2019-02-22 2020-08-27 华为技术有限公司 训练模型的方法和装置
CN111698322A (zh) * 2020-06-11 2020-09-22 福州数据技术研究院有限公司 一种基于区块链和联邦学习的医疗数据安全共享方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815344A (zh) * 2019-01-29 2019-05-28 华南师范大学 基于参数共享的网络模型训练系统、方法、装置和介质
WO2020168761A1 (zh) * 2019-02-22 2020-08-27 华为技术有限公司 训练模型的方法和装置
CN110197285A (zh) * 2019-05-07 2019-09-03 清华大学 基于区块链的安全协作深度学习方法及装置
CN110516804A (zh) * 2019-08-22 2019-11-29 广东浪潮大数据研究有限公司 模型训练方法及装置
CN111275188A (zh) * 2020-01-20 2020-06-12 深圳前海微众银行股份有限公司 横向联邦学习系统优化方法、设备及可读存储介质
CN111698322A (zh) * 2020-06-11 2020-09-22 福州数据技术研究院有限公司 一种基于区块链和联邦学习的医疗数据安全共享方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
盛秀杰 等: "大数据下油气勘探目标分析资源评价及部署决策一体化软件系统", 30 April 2018, pages: 255 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113537400A (zh) * 2021-09-14 2021-10-22 浙江捷瑞电力科技有限公司 一种基于分支神经网络的边缘计算节点的分配与退出方法
CN113537400B (zh) * 2021-09-14 2024-03-19 浙江捷瑞电力科技有限公司 一种基于分支神经网络的边缘计算节点的分配与退出方法
CN114782758A (zh) * 2022-06-21 2022-07-22 平安科技(深圳)有限公司 图像处理模型训练方法、系统、计算机设备及存储介质
CN114782758B (zh) * 2022-06-21 2022-09-02 平安科技(深圳)有限公司 图像处理模型训练方法、系统、计算机设备及存储介质
CN116170239A (zh) * 2023-04-26 2023-05-26 成都天用唯勤科技股份有限公司 多中心化的数据处理方法、系统以及存储介质
CN116170239B (zh) * 2023-04-26 2023-07-14 成都天用唯勤科技股份有限公司 多中心化的数据处理方法、系统以及存储介质

Similar Documents

Publication Publication Date Title
CN112329557A (zh) 模型的应用方法、装置、计算机设备及存储介质
CN111490990B (zh) 基于大数据平台的网络安全分析方法、大数据平台服务器及计算机可读存储介质
CN109241711B (zh) 基于预测模型的用户行为识别方法及装置
CN110535971B (zh) 基于区块链的接口配置处理方法、装置、设备及存储介质
CN110647582A (zh) 区块链网络共识校验的方法、装置、存储介质和计算机设备
CN110597541B (zh) 基于区块链的接口更新处理方法、装置、设备及存储介质
CN113194079A (zh) 登录验证方法、装置、设备及存储介质
CN110866289A (zh) 基于区块链的数据处理方法、装置、服务器及存储介质
CN111242317A (zh) 管理应用的方法、装置、计算机设备和存储介质
CN110930254A (zh) 基于区块链的数据处理方法、装置、终端及介质
CN112819483A (zh) 基于区块链的产品溯源管理方法、装置及相关设备
CN111310195A (zh) 一种安全漏洞管理方法、装置、系统、设备和存储介质
CN111666298A (zh) 基于flink的用户服务类别检测方法、装置、计算机设备
CN110798709A (zh) 视频处理方法和装置、存储介质及电子装置
CN112633146A (zh) 多姿态人脸性别检测训练优化方法、装置及相关设备
CN110598475A (zh) 基于区块链的作品属性信息获取方法、装置和计算机设备
CN115391188A (zh) 一种场景测试用例生成方法、装置、设备及存储介质
CN112817816B (zh) 埋点处理方法、装置、计算机设备和存储介质
CN110598374A (zh) 基于区块链的作品登记方法、装置和计算机可读存储介质
CN112699406A (zh) 基于区块链的医疗影像数据安全管理方法和系统
CN112328285A (zh) 系统新功能生产更新方法、装置、设备及介质
CN114584326B (zh) 区块链数据处理方法、装置、电子设备及存储介质
CN114491093B (zh) 多媒体资源推荐、对象表征网络的生成方法及装置
CN113495764B (zh) 自动化数据提取方法、装置、计算机设备和存储介质
CN110599386B (zh) 身份认证方法、装置、存储介质和计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination