CN114202062A - 一种网络模型训练方法、客户端及服务器 - Google Patents

一种网络模型训练方法、客户端及服务器 Download PDF

Info

Publication number
CN114202062A
CN114202062A CN202111519257.4A CN202111519257A CN114202062A CN 114202062 A CN114202062 A CN 114202062A CN 202111519257 A CN202111519257 A CN 202111519257A CN 114202062 A CN114202062 A CN 114202062A
Authority
CN
China
Prior art keywords
client
server
parameter
parameters
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111519257.4A
Other languages
English (en)
Inventor
王宗国
郭佳龙
王彦棡
刘志威
陈子逸
王珏
曹荣强
李杨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Computer Network Information Center of CAS
Original Assignee
Computer Network Information Center of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Computer Network Information Center of CAS filed Critical Computer Network Information Center of CAS
Priority to CN202111519257.4A priority Critical patent/CN114202062A/zh
Publication of CN114202062A publication Critical patent/CN114202062A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2465Query processing support for facilitating data mining operations in structured databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C60/00Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation

Abstract

本发明提供了一种网络模型训练方法、客户端及服务器,涉及人工智能技术领域。该方法中多个客户端均基于相同的公共参数生成它们各自的网络模型,并将它们各自的网络模型中的权重参数发送至服务器,由服务器进行处理得到多个客户端共同使用的一个权重参数,之后,多个客户端可以通过它们共同使用的一个权重参数分别更新它们各自的网络模型,并进行训练。这样实现了只需要将不同客户端上的数据库在本地训练的参数进行交互,就可训练出具有将所有数据库融合在一起开展深度学习模型训练效果的网络模型,这既保护了本地数据的安全,又促进了数据共享和发展。

Description

一种网络模型训练方法、客户端及服务器
技术领域
本发明涉及人工智能技术领域,具体涉及一种网络模型训练方法、客户端及服务器。
背景技术
借助人工智能技术构建科学发现与应用的模型,能够促进科学研究的发展。随着材料基因组计划的实施,高通量计算和高通量实验技术迅速发展,与此同时,在以上技术的红利下每个研究组都积累了大量的材料科学数据,一方面,由于受到网络带宽和存储空间的限制,无法开展大量数据的传输和汇交工作,另一方面,由于部分材料数据存在保密性和先验性,研究人员不愿意将本地自有数据公开共享。此外,目前也还没有一个成熟的数据管理体系和数据汇交系统,采用合理的政策将所有的数据集中在一起使用。
随着人工智能技术的飞速发展,越来越多的科研人员也开始尝试应用已有数据挖掘更多的新材料和新应用。但是受限于自身数据量不足的原因,很多基于数据的研究无法正常开展。目前为了更好的开展数据挖掘相关的工作,获取大量材料数据集的支撑,很多课题组不得不重复大量其他课题组已经开展过的计算或实验工作,来获取所需的材料数据。目前国内不同的科研院所和高校也相继成立了数个数据中心,这些数据中心之间数据不互通,尤其是经过验证的数据具有宝贵的研究意义,如果借助人工智能技术,基于这些材料数据中心的数据,开展材料研究,会获取大量有用的信息,基于大量数据训练的模型也更具有使用价值和参考意义。
发明内容
本发明的目的是提供一种网络模型训练方法、客户端、服务器及计算机存储介质,能够只需要将不同客户端上的数据库在本地训练的参数进行交互,就可训练出具有将所有数据库融合在一起开展深度学习模型训练效果的网络模型,这既保护了本地数据的安全,又促进了数据共享和发展。
为实现上述目的,第一方面,本发明提供了一种网络模型训练方法,所述方法包括:
客户端基于目标公共参数和本地的数据库,训练得到网络模型,所述目标公共参数包括网络输入特征参数、目标模型结构、目标模型参数和网络输出特征参数,所述目标公共参数由所述客户端从服务器获得,或者由用户输入的信息得到;
所述客户端通过N轮迭代更新所述网络模型,得到所需的网络模型,N为大于或等于1的正整数;
其中,针对所述N轮迭代中的任意一轮迭代,包括以下步骤:
所述客户端向所述服务器发送第一消息,所述第一消息中包括在第(N-1)轮迭代时得到的网络模型的第一权重参数,所述第一消息用于指示所述服务器基于所述第一权重参数和其他的客户端发送的所述其他的客户端在第(N-1)轮迭代时得到的网络模型的第一权重参数生成第二权重参数,所述其他的客户端训练网络模型时所需的的公共参数与所述目标公共参数相同;
所述客户端获取所述服务器发送第二消息,所述第二消息中包括所述第二权重参数;
所述客户端基于所述第二权重参数,更新所述客户端在第(N-1)轮迭代时得到的网络模型;
所述客户端基于所述本地的数据库,对更新后的网络模型进行训练,得到目标网络模型。
在一种可能的实现方式中,所述网络输入特征参数包括构成材料的元素性质信息和材料结构信息,其中,所述元素性质信息包括原子序数、原子量、元素名称、元素基本物理性质中的一项或多项,所述材料结构信息包括晶格常数、空间群、体积、位置信息中的一项或多项;
所述网络输出特征参数包括预测到的材料的性质信息。
在一种可能的实现方式中,所述目标模型结构包括神经网络隐藏层数和每层的维度。
在一种可能的实现方式中,所述目标模型参数包括迭代步数、激活函数、学习率、batch大小中的一项或多项。
第二方面,本发明提供了一种网络模型训练方法,所述方法包括:
服务器获取M个客户端中每个客户端发送的第一消息,所述第一消息中包括所述每个客户端在第(N-1)轮迭代时得到的网络模型的第一权重参数,其中,所述每个客户端第一次得到的网络模型由所述每个客户端基于目标公共参数和所述每个客户端本地的数据库训练得到,所述目标公共参数包括网络输入特征参数、目标模型结构、目标模型参数和网络输出特征参数,M为大于或等于2的正整数,N为大于或等于1的正整数;
所述服务器对M个所述第一权重参数进行处理,得到第二权重参数;
所述服务器向M个客户端中的每个客户端分别发送第二消息,所述第二消息中包括所述第二权重参数,所述第二消息用于指示所述每个客户端更新所述每个客户端在第(N-1)轮迭代时得到的网络模型。
在一种可能的实现方式中,所述服务器获取M个客户端中每个客户端发送的第一消息之前,所述方法还包括:
所述服务器获取用户的参数配置操作,所述参数配置操作包括配置所述目标公共参数;
所述服务器向M个客户端中的每个客户端发送所述目标公共参数。
在一种可能的实现方式中,所述服务器对M个所述目标模型参数进行处理,得到第二权重参数,具体包括:
所述服务器对M个所述目标模型参数进行加权平均,得到所述第二权重参数,其中,在加权平均过程中每个目标模型参数对应的权重值与所述每个目标模型参数对应的客户端中的数据库中的数据相关。
第三方面,本发明提供了一种客户端,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行第一方面中所提供的方法。
第四方面,本发明提供了一种服务器,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行第二方面中提供的方法。
第五方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被处理器执行时,使得所述处理器执行第一方面或第二方面中所提供的方法。
相较于现有技术,本发明实施例中提供的网络模型训练方法,多个客户端均基于相同的公共参数生成它们各自的网络模型,并将它们各自的网络模型中的权重参数发送至服务器,由服务器进行处理得到多个客户端共同使用的一个权重参数,之后,多个客户端可以通过它们共同使用的一个权重参数分别更新它们各自的网络模型,并进行训练。这样实现了只需要将不同客户端上的数据库在本地训练的参数进行交互,就可训练出具有将所有数据库融合在一起开展深度学习模型训练效果的网络模型,这既保护了本地数据的安全,又促进了数据共享和发展。
附图说明
图1为本发明实施例提供的一种应用场景示意图;
图2是本发明实施例提供的一种网络模型训练方法的步骤示意图。
具体实施方式
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制。
此外,需要理解的是,使用“第一”、“第二”、“第三”等词语来限定零部件,仅仅是为了便于对上述零部件进行区别,如没有另行声明,上述词语并没有特殊含义,因此不能理解为对本发明保护范围的限制。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
示例性的,图1示出了本申请实施例中的一种应用场景。如图1所示,该场景下可以包括服务器(server)和M个客户端(client),M为大于或等于2的正整数,服务器和客户端间可以通过网络进行数据交互。每个客户端中均具有独立的数据库,每个客户端均可以基于其自身的数据库训练得到一个网络模型。其中,在初始训练时所需的模型参数可以由客户端从服务器获得,也可以由用户在本地进行配置,且不同的客户端在初始训练时所需的模型参数均相同。
服务器可以向每个客户端下发它们在初始训练时所需的模型参数,和/或,采用特定算法(如Fedavg等)将不同客户端训练的深度学习模型整合成一个全局模型,并将模型参数反馈给各个客户端,客户端根据反馈的第二权重参数继续开展模型训练,直至全局模型收敛。其中,本申请实施例中,服务器并不向客户端提供网络模型,客户端中第一次获取到的网络模型是由客户端基于初始训练时所需的模型参数训练得到。
示例性的,图2示出了本申请实施例提供的一种网络模型训练方法。在图2中客户端为M个,M为大于或等于2的正整数,其中,每个客户端均可以独自与服务器进行数据交互。如图2所示,该方法包括以下步骤:
S201、服务器向M个客户端中的每个客户端发送目标公共参数。
具体地,在用户完成对服务器的参数配置操作后,服务器可以向M个客户端中的每个客户端发送目标公共参数。其中,参数配置操作包括配置目标公共参数。
在一个例子中,目标公共参数可以包括:网络输入特征参数、目标模型结构、目标模型参数和网络输出特征参数。
示例性的,网络输入特征参数包括构成材料的元素性质信息和材料结构信息,其中,元素性质信息包括原子序数、原子量、元素名称、元素基本物理性质中的一项或多项;材料结构信息包括晶格常数、空间群、体积、位置信息中的一项或多项;网络输出特征参数包括预测到的材料的性质信息。这样该方法即可以应用到材料领域,从而可以将不同材料数据库联合起来共同开展数据挖掘相关的管理策略和实施案例。
目标模型结构包括神经网络隐藏层数和每层的维度;目标模型参数包括迭代步数、激活函数、学习率、batch大小中的一项或多项。
在一个例子中,S201也可以替换为用户直接在M个客户端上进行配置。
S202、M个客户端中的每个客户端均基于目标公共参数和该客户端本地的数据库,训练得到网络模型。
具体地,M个客户端中的每个客户端在获取到目标公共参数后,可以均基于该目标公共参数和该客户端本地的数据库,训练得到网络模型。示例性的,可以由目标公共参数中的目标网络结构和目标模型参数得到所需的网络模型框架,由网络输入特征参数和网络输出特征参数可以获知到该网络模型框架所需输入和输出的数据的结构等,之后,通过该网络模型框架对本地的数据库中的数据进行处理,即可以训练得到网络模型。
S203、M个客户端中的每个客户端均将获取到的网络模型中的第一权重参数发送至服务器。
具体地,M个客户端中的每个客户端在获取的网络模型后,可以均将它们各自获取到的网络模型中的权重参数(也称为第一权重参数)发送至服务器。示例性的,客户端在与服务器通信时,其可以在其与服务器通信的消息中携带第一权重参数,此时,该消息可以用于指示。服务器基于M个第一权重参数生成第二权重参数。
S204、服务器对M个第一权重参数进行处理,得到第二权重参数。
具体地,服务器在获取到M个第一权重参数后,可以对该M个第一权重参数进行处理,得到第二权重参数。示例性的,可以对M个第一权重参数进行加权平均得到第二权重参数。其中,在加权平均时每个第一权重参数的权重值可以预先进行标定。
S205、服务器将第二权重参数分发至M个客户端中的每个客户端。
具体地,服务器在得到第二权重参数后,可以将该第二权重参数分发至M个客户端中的每个客户端。
示例性的,服务器在与客户端通信时,其可以在其与客户端通信的消息中携带第二权重参数,此时,该消息可以用于指示用于指示客户端更新其获取到的网络模型。若此时为第N轮迭代,则此时需更新的网络模型为第(N-1)轮迭代得到的网络模型。
S206、M个客户端中的每个客户端均基于第二权重参数,更新网络模型,得到新的网络模型。
具体地,M个客户端中的每个客户端在获取到第二权重参数后,均可以基于该第二权重参数,更新其获取到的网络模型,以得到新的网络模型。示例性的,每个客户端均可以使用第二权重参数替换网络模型中的第一权重参数。
S207、M个客户端中的每个客户端均基于本地的数据库对新的网络模型进行训练,得到目标网络模型。
具体地,M个客户端中的每个客户端在获取到新的网络模型后,均可以在使用其本地的数据库对新的网络模型进行训练,得到目标网络模型。其中,在训练时,每个客户端均使用其本地的数据库中的数据进行训练,而不使用其他的客户端中的数据库中的数据。
S208、服务器或者M个客户端中的客户端判断迭代轮次是否大于或等于i。
具体地,在M个客户端中的每个客户端得到目标网络模型后,服务器和/或客户端均可以判断迭代轮次是否大于或等于i。若是,则结束,且M个客户端中的每个客户端均存储其相应获取到的目标网络模型。若不是,则返回执行S203,此时S203中的网络模型为在S207中获取到的目标网络模型。
此外,当某个客户端未达到迭代次数,但其获取到的目标网络模型达到收敛时,也可以控制该客户端停止训练,并保留其获取到目标网络模型。
由此,多个客户端均基于相同的公共参数生成它们各自的网络模型,并将它们各自的网络模型中的权重参数发送至服务器,由服务器进行处理得到多个客户端共同使用的一个权重参数,之后,多个客户端可以通过它们共同使用的一个权重参数分别更新它们各自的网络模型,并进行训练。这样实现了只需要将不同客户端上的数据库在本地训练的参数进行交互,就可训练出具有将所有数据库融合在一起开展深度学习模型训练效果的网络模型,这既保护了本地数据的安全,又促进了数据共享和发展。
此外,当将本申请实施例提供的方法应用到材料领域时,可以使不同区域、不同课题组之间不通过数据传输即可完成所有数据及共同训练模型的目标,每个分数据集拥有者同时可以实现小数据大模型的效果。既保护了本地材料数据的隐私,减少了数据传输的网络带宽需求,减小重复数据的存储需求和避免了重复产生材料数据的资源损耗,又促进了数据共享与资源的有效利用。与传统材料数据汇交相比,更容易得到数据产生者的接受和采纳。此外,通过本方法产生的深度学习模型不仅可供不同客户端之间用户的使用,经过参与方的授权或同意,还可以将模型发表和公开,服务更多的新材料发现和研制过程。
可以理解的是,本发明的实施例中的处理器可以是中央处理单元(centralprocessing unit,CPU),还可以是其他通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件,硬件部件或者其任意组合。通用处理器可以是微处理器,也可以是任何常规的处理器。
本发明的实施例中的方法步骤可以通过硬件的方式来实现,也可以由处理器执行软件指令的方式来实现。软件指令可以由相应的软件模块组成,软件模块可以被存放于随机存取存储器(random access memory,RAM)、闪存、只读存储器(read-only memory,ROM)、可编程只读存储器(programmable rom,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)、寄存器、硬盘、移动硬盘、CD-ROM或者本领域熟知的任何其它形式的存储介质中。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者通过所述计算机可读存储介质进行传输。所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
可以理解的是,在本发明的实施例中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本发明的实施例的范围。

Claims (10)

1.一种网络模型训练方法,其特征在于,所述方法包括:
客户端基于目标公共参数和本地的数据库,训练得到网络模型,所述目标公共参数包括网络输入特征参数、目标模型结构、目标模型参数和网络输出特征参数,所述目标公共参数由所述客户端从服务器获得,或者由用户输入的信息得到;
所述客户端通过N轮迭代更新所述网络模型,得到所需的网络模型,N为大于或等于1的正整数;
其中,针对所述N轮迭代中的任意一轮迭代,包括以下步骤:
所述客户端向所述服务器发送第一消息,所述第一消息中包括在第(N-1)轮迭代时得到的网络模型的第一权重参数,所述第一消息用于指示所述服务器基于所述第一权重参数和其他的客户端发送的所述其他的客户端在第(N-1)轮迭代时得到的网络模型的第一权重参数生成第二权重参数,所述其他的客户端训练网络模型时所需的公共参数与所述目标公共参数相同;
所述客户端获取所述服务器发送第二消息,所述第二消息中包括所述第二权重参数;
所述客户端基于所述第二权重参数,更新所述客户端在第(N-1)轮迭代时得到的网络模型;
所述客户端基于所述本地的数据库,对更新后的网络模型进行训练,得到目标网络模型。
2.根据权利要求1所述的方法,其特征在于,所述网络输入特征参数包括构成材料的元素性质信息和材料结构信息,其中,所述元素性质信息包括原子序数、原子量、元素名称、元素基本物理性质中的一项或多项,所述材料结构信息包括晶格常数、空间群、体积、位置信息中的一项或多项;
所述网络输出特征参数包括预测到的材料的性质信息。
3.根据权利要求1所述的方法,其特征在于,所述目标模型结构包括神经网络隐藏层数和每层的维度。
4.根据权利要求1-3任一所述的方法,其特征在于,所述目标模型参数包括迭代步数、激活函数、学习率、batch大小中的一项或多项。
5.一种网络模型训练方法,其特征在于,所述方法包括:
服务器获取M个客户端中每个客户端发送的第一消息,所述第一消息中包括所述每个客户端在第(N-1)轮迭代时得到的网络模型的第一权重参数,其中,所述每个客户端第一次得到的网络模型由所述每个客户端基于目标公共参数和所述每个客户端本地的数据库训练得到,所述目标公共参数包括网络输入特征参数、目标模型结构、目标模型参数和网络输出特征参数,M为大于或等于2的正整数,N为大于或等于1的正整数;
所述服务器对M个所述第一权重参数进行处理,得到第二权重参数;
所述服务器向M个客户端中的每个客户端分别发送第二消息,所述第二消息中包括所述第二权重参数,所述第二消息用于指示所述每个客户端更新所述每个客户端在第(N-1)轮迭代时得到的网络模型。
6.根据权利要求5所述的方法,其特征在于,所述服务器获取M个客户端中每个客户端发送的第一消息之前,所述方法还包括:
所述服务器获取用户的参数配置操作,所述参数配置操作包括配置所述目标公共参数;
所述服务器向M个客户端中的每个客户端发送所述目标公共参数。
7.根据权利要求5或6所述的方法,其特征在于,所述服务器对M个所述第一权重参数进行处理,得到第二权重参数,具体包括:
所述服务器对M个所述第一权重参数进行加权平均,得到所述第二权重参数,其中,在加权平均过程中每个第一权重参数对应的权重值与所述每个第一权重参数对应的客户端中的数据库中的数据相关。
8.一种客户端,其特征在于,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行如权利要求1-4任一所述的方法。
9.一种服务器,其特征在于,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行如权利要求5-7任一所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1-7任一所述的方法。
CN202111519257.4A 2021-12-13 2021-12-13 一种网络模型训练方法、客户端及服务器 Pending CN114202062A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111519257.4A CN114202062A (zh) 2021-12-13 2021-12-13 一种网络模型训练方法、客户端及服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111519257.4A CN114202062A (zh) 2021-12-13 2021-12-13 一种网络模型训练方法、客户端及服务器

Publications (1)

Publication Number Publication Date
CN114202062A true CN114202062A (zh) 2022-03-18

Family

ID=80653009

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111519257.4A Pending CN114202062A (zh) 2021-12-13 2021-12-13 一种网络模型训练方法、客户端及服务器

Country Status (1)

Country Link
CN (1) CN114202062A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114760639A (zh) * 2022-03-30 2022-07-15 深圳市联洲国际技术有限公司 资源单元分配方法、装置、设备及存储介质
CN116011991A (zh) * 2022-12-30 2023-04-25 中国电子科技集团公司第三十八研究所 基于代理和备份技术的多人协同任务保障方法
WO2023226650A1 (zh) * 2022-05-27 2023-11-30 华为技术有限公司 一种模型训练的方法和装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114760639A (zh) * 2022-03-30 2022-07-15 深圳市联洲国际技术有限公司 资源单元分配方法、装置、设备及存储介质
WO2023226650A1 (zh) * 2022-05-27 2023-11-30 华为技术有限公司 一种模型训练的方法和装置
CN116011991A (zh) * 2022-12-30 2023-04-25 中国电子科技集团公司第三十八研究所 基于代理和备份技术的多人协同任务保障方法
CN116011991B (zh) * 2022-12-30 2023-12-19 中国电子科技集团公司第三十八研究所 基于代理和备份技术的多人协同任务保障方法

Similar Documents

Publication Publication Date Title
CN114202062A (zh) 一种网络模型训练方法、客户端及服务器
Zhou et al. Multi-objective hybrid artificial bee colony algorithm enhanced with Lévy flight and self-adaption for cloud manufacturing service composition
Yuan et al. Practical privacy-preserving mapreduce based k-means clustering over large-scale dataset
Wang et al. Maptask scheduling in mapreduce with data locality: Throughput and heavy-traffic optimality
WO2022077797A1 (zh) 量子线路的确定方法、装置、设备及存储介质
DE202020005700U1 (de) Aufrufen externer Funktionen aus einem Datenlager
US8819068B1 (en) Automating creation or modification of database objects
Spirin et al. Protein complexes and functional modules in molecular networks
US8402469B2 (en) Allocating resources for parallel execution of query plans
US10522244B2 (en) Bioinformatic processing systems and methods
CN107645532A (zh) 混合云的用户管理方法和装置
CN105956413A (zh) 识别生物分子网络中关键模块或关键节点的方法
US10248324B2 (en) Oblivious parallel random access machine system and methods
WO2017045450A1 (zh) 资源的操作处理方法及装置
CN108009437A (zh) 数据发布方法和装置及终端
EP3057007B1 (en) Cloud-based hardware architecture
CN112216353A (zh) 一种用于预测药物-靶标相互作用关系的方法和设备
WO2023124219A1 (zh) 一种联合学习模型迭代更新方法、装置、系统及存储介质
EP4049214A1 (en) A method for analyzing data using a blockchain, a data provider and a data customer therefor
WO2022011946A1 (zh) 一种数据预测方法、装置、计算机设备及存储介质
Abdullah et al. Modular Platforms based on Clouded Web Technology and Distributed Deep Learning Systems
Zhu et al. Authentication of Multi-Dimensional Top-$ K $ Query on Untrusted Server
Regunathan et al. Neural based QoS aware mobile cloud service and its application to preeminent service selection using back propagation
CN107545004A (zh) 一种搜索的方法、装置和搜索引擎系统
CN114503505A (zh) 从分布式网络中的有噪声的数值数据学习模式字典

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination