CN114254735A - 一种基于分布式的僵尸网络模型构建方法和装置 - Google Patents

一种基于分布式的僵尸网络模型构建方法和装置 Download PDF

Info

Publication number
CN114254735A
CN114254735A CN202111483131.6A CN202111483131A CN114254735A CN 114254735 A CN114254735 A CN 114254735A CN 202111483131 A CN202111483131 A CN 202111483131A CN 114254735 A CN114254735 A CN 114254735A
Authority
CN
China
Prior art keywords
task
hyper
parameter
information
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111483131.6A
Other languages
English (en)
Inventor
夏凡
赵锐颉
罗钰清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Citic Bank Corp Ltd
Original Assignee
China Citic Bank Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Citic Bank Corp Ltd filed Critical China Citic Bank Corp Ltd
Priority to CN202111483131.6A priority Critical patent/CN114254735A/zh
Publication of CN114254735A publication Critical patent/CN114254735A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/14Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
    • H04L63/1441Countermeasures against malicious traffic
    • H04L63/145Countermeasures against malicious traffic the attack involving the propagation of malware through the network, e.g. viruses, trojans or worms

Abstract

本发明公开了一种基于分布式的僵尸网络模型构建方法和装置,通过在client上设置超参数要求,获得计算任务图;将所述计算任务图发送至master;根据计算任务图,获得任务信息集合;根据任务信息集合,获得任务指令,并将任务指令分发给对应的worker;基于任务指令,通过worker进行模型训练,获得超参数信息,并将超参数信息返回至client;根据超参数信息,client制定下一轮模型计算任务;基于前一轮获得的超参数信息重新训练,获得模型学习衰减率,当所述模型学习衰减率满足预设值时停止训练。解决了现有技术中寻参时间消耗大,存在建立僵尸网络模型不准确及建模时间长的技术问题。达到了分布式自动寻参,缩短寻参时间并寻找最优超参数以提高模型精准度的技术效果。

Description

一种基于分布式的僵尸网络模型构建方法和装置
技术领域
本发明涉及僵尸模型技术领域,尤其涉及一种基于分布式的僵尸网络模型构建方法和装置。
背景技术
随着物联网技术的发展,网络设备在各行业的占比也在增大。同时被僵尸病毒感染而形成的僵尸网络也在不断壮大,控制者也在不断更新技术手段制造新型的僵尸病毒。目前基于机器学习的僵尸网络检已有很多研究,但是现有的僵尸网络模型建立在寻参花上费了大量时间,导致僵尸网络模型不能快速的建立并用于检测,极大的增加了检测僵尸网络的时间。在建立模型时超参数的选择需耗费大量时间,尤其涉及到多个超参数时其计算量呈指数增长,且超参数对于模型的精准度影响非常大,直接影响学习过程和预测性能。
但本申请发明人在实现本申请实施例中发明技术方案的过程中,发现上述技术至少存在如下技术问题:
现有技术中寻参时间消耗大,存在建立僵尸网络模型不准确及建模时间长的技术问题。
发明内容
本申请实施例通过提供一种基于分布式的僵尸网络模型构建方法和装置,解决了现有技术中寻参时间消耗大,存在建立僵尸网络模型不准确及建模时间长的技术问题。
鉴于上述问题,提出了本申请实施例提供一种基于分布式的僵尸网络模型构建方法和装置。
第一方面,本申请实施例提供了一种基于分布式的僵尸网络模型构建方法,通过步骤1:在client上设置超参数要求,获得计算任务图;步骤2:将所述计算任务图发送至master;步骤3:master根据所述计算任务图,获得任务信息集合;步骤4:根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker;步骤5:基于所述任务指令,通过worker进行模型训练,获得超参数信息,并将所述超参数信息返回至client;步骤6:根据所述超参数信息,client制定下一轮模型计算任务;步骤7:基于前一轮获得的超参数信息,重复步骤2-6,获得模型学习衰减率,当所述模型学习衰减率满足预设值时停止训练。
优选的,所述步骤1:在client上设置超参数要求,获得计算任务图,包括:根据所述超参数要求,获得初始参数;根据所述初始参数,获得所述计算任务图。
优选的,所述根据所述初始参数,获得所述计算任务图,包括:根据所述初始参数,获得计算任务信息;将所述计算任务信息转换成graph数据流;基于所述graph数据流,获得所述计算任务图。
优选的,所述步骤4:根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker,包括:获得worker信息集合;根据所述任务信息集合,worker信息集合,获得分配关系,所述分配关系为任务信息与worker之间的分配对应关系;根据所述分配关系、所述任务信息集合,获得第一任务信息和第一worker、第二任务信息和第二worker、直到第N任务和第Nworker,其中,N为正整数;根据所述第一任务信息,获得任务指令,并将所述任务指令分发至第一worker,以此类推将第N任务的任务指令分发至第Nworker进行执行。
优选的,所述步骤5:基于所述任务指令,通过worker进行模型训练,获得超参数信息,包括:获得参数取值信息、训练数据;根据所述参数取值信息、训练数据,执行所述任务指令训练模型,利用反向传播更新参数,获得训练结果;根据所述训练结果,获得所述超参数信息。
优选的,所述预设值为0。
另一方面,本申请还提供了一种基于分布式的僵尸网络模型构建装置,所述装置包括:
第一获得单元,所述第一获得单元用于在client上设置超参数要求,获得计算任务图;
第一发送单元,所述第一发送单元用于将所述计算任务图发送至master;
第二获得单元,所述第二获得单元用于master根据所述计算任务图,获得任务信息集合;
第三获得单元,所述第三获得单元用于根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker;
第一执行单元,所述第一执行单元用于基于所述任务指令,通过worker进行模型训练,获得超参数信息,并将所述超参数信息返回至client;
第二执行单元,所述第二执行单元用于根据所述超参数信息,client制定下一轮模型计算任务;
第三执行单元,所述第三执行单元用于基于前一轮获得的超参数信息,worker重复进行训练,获得超参数信息,并通过client计算模型学习衰减率,当所述模型学习衰减率满足预设值时停止训练。
第三方面,本发明提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现第一方面任一项所述方法的步骤。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请实施例提供了一种基于分布式的僵尸网络模型构建方法和装置,通过步骤1:在client上设置超参数要求,获得计算任务图;步骤2:将所述计算任务图发送至master;步骤3:master根据所述计算任务图,获得任务信息集合;步骤4:根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker;步骤5:基于所述任务指令,通过worker进行模型训练,获得超参数信息,并将所述超参数信息返回至client;步骤6:根据所述超参数信息,client制定下一轮模型计算任务;步骤7:基于前一轮获得的超参数信息,重复步骤2-6,获得模型学习衰减率,当所述模型学习衰减率满足预设值时停止训练。达到了通过将任务分发给多个执行主体进行分布训练,并将每次训练结果反馈给主机指导下一轮的参数生成,使参数的生成有方向性,实现分布式自动寻参,极大的缩短了参数寻优的时间,并利用最优超参数提高了僵尸模型精准度的技术效果,从而解决了现有技术中寻参时间消耗大,存在建立僵尸网络模型不准确及建模时间长的技术问题。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
图1为本申请实施例一种基于分布式的僵尸网络模型构建方法的流程示意图;
图2为本申请实施例中参数更新过程的流程示意图;
图3为本申请实施例一种基于分布式的僵尸网络模型构建装置的结构示意图;
图4为本申请实施例示例性计算机设备的结构示意图。
附图标记说明:第一获得单元11,第一发送单元12,第二获得单元13,第三获得单元14,第一执行单元15,第二执行单元16,第三执行单元17,总线300,接收器301,处理器302,发送器303,存储器304,总线接口305。
具体实施方式
本申请实施例通过提供一种基于分布式的僵尸网络模型构建方法和装置,用以解决现有技术中寻参时间消耗大,存在建立僵尸网络模型不准确及建模时间长的技术问题。达到了通过将任务分发给多个执行主体进行分布训练,并将每次训练结果反馈给主机指导下一轮的参数生成,使参数的生成有方向性,实现分布式自动寻参,极大的缩短了参数寻优的时间,并利用最优超参数提高了僵尸模型精准度的技术效果。
下面,将参考附图详细的描述根据本申请的示例实施例。显然,所描述的实施例仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
随着物联网技术的发展,网络设备在各行业的占比也在增大。同时被僵尸病毒感染而形成的僵尸网络也在不断壮大,控制者也在不断更新技术手段制造新型的僵尸病毒。目前基于机器学习的僵尸网络检已有很多研究,但是现有的僵尸网络模型建立在寻参花上费了大量时间,导致僵尸网络模型不能快速的建立并用于检测,极大的增加了检测僵尸网络的时间。现有技术中寻参时间消耗大,存在建立僵尸网络模型不准确及建模时间长的技术问题。
针对上述技术问题,本申请提供的技术方案总体思路如下:
步骤1:在client上设置超参数要求,获得计算任务图;步骤2:将所述计算任务图发送至master;步骤3:master根据所述计算任务图,获得任务信息集合;步骤4:根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker;步骤5:基于所述任务指令,通过worker进行模型训练,获得超参数信息,并将所述超参数信息返回至client;步骤6:根据所述超参数信息,client制定下一轮模型计算任务;步骤7:基于前一轮获得的超参数信息,重复步骤2-6,获得模型学习衰减率,当所述模型学习衰减率满足预设值时停止训练。达到了通过将任务分发给多个执行主体进行分布训练,并将每次训练结果反馈给主机指导下一轮的参数生成,使参数的生成有方向性,实现分布式自动寻参,极大的缩短了参数寻优的时间,并利用最优超参数提高了僵尸模型精准度的技术效果。
在介绍了本申请基本原理后,下面将结合说明书附图来具体介绍本申请的各种非限制性的实施方式。
实施例一
图1为本申请实施例一种基于分布式的僵尸网络模型构建方法的流程示意图,如图1所示,本申请实施例提供了一种基于分布式的僵尸网络模型构建方法,所述方法包括:
步骤1:在client上设置超参数要求,获得计算任务图;
进一步的,所述步骤1:在client上设置超参数要求,获得计算任务图,包括:根据所述超参数要求,获得初始参数;根据所述初始参数,获得所述计算任务图。
进一步的,所述根据所述初始参数,获得所述计算任务图,包括:根据所述初始参数,获得计算任务信息;将所述计算任务信息转换成graph数据流;基于所述graph数据流,获得所述计算任务图。
具体而言,本申请实施例针对于僵尸网络,利用TensorFlow的异步分布式机制,同时利用图的复写和分区来实现分布式计算,首先收集交换机、路由器、沙箱的镜像流量以确定对象信息,相当于模型建立中确定数据级的过程。在主机client上设置超参数类型及范围即设置参数要求,基于设定的参数要求确定初始参数,确定训练模型,client将待计算过程转成graph数据流,创建计算任务图,其中,graph(图)是一种比较有意思的数据结构,它比较抽象,但是其实很好理解,其实就是用一个集合来装一些相互连接的边和顶点,然后这个集合就叫做图,这种边和顶点有着一对多的关系,并各顶点有边并带有某种联系的抽象关系。
步骤2:将所述计算任务图发送至master;
具体而言,主机client将待计算过程转成graph数据流后通过session传送至master,Session在计算机中,尤其是在网络应用中,称为“会话控制”。Session对象存储特定用户会话所需的属性及配置信息。这样,当用户在应用程序的Web页之间跳转时,存储在Session对象中的变量将不会丢失,而是在整个用户会话中一直存在下去。Master在TensorFlow的异步分布式机制中具有任务分发、参数更新、参数存储、监控work工作的任务和作用。
步骤3:master根据所述计算任务图,获得任务信息集合;
步骤4:根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker;
进一步的,所述步骤4:根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker,包括:获得worker信息集合;根据所述任务信息集合,worker信息集合,获得分配关系,所述分配关系为任务信息与worker之间的分配对应关系;根据所述分配关系、所述任务信息集合,获得第一任务信息和第一worker、第二任务信息和第二worker、直到第N任务和第Nworker,其中,N为正整数;根据所述第一任务信息,获得任务指令,并将所述任务指令分发至第一worker,以此类推将第N任务的任务指令分发至第Nworker进行执行。
具体而言,master接收到clinet发送计算任务图,对其中的任务进行分解和获取,得到任务信息集合,即包含了计算任务内容,根据任务内容分配给适合的worker,并监控worker的工作状态,本申请实施例利用异步分布式机制,将训练任务分配给不同的worker进行训练,按照计算任务图和worker的特征进行匹配,将计算任务集合中的任务分发给多个worker进行训练,N个任务分配给N个worker进行处理,实现不同的worker进行同步训练,大幅提高训练速度。
步骤5:基于所述任务指令,通过worker进行模型训练,获得超参数信息,并将所述超参数信息返回至client;
步骤6:根据所述超参数信息,client制定下一轮模型计算任务;
进一步的,所述步骤5:基于所述任务指令,通过worker进行模型训练,获得超参数信息,包括:获得参数取值信息、训练数据;根据所述参数取值信息、训练数据,执行所述任务指令训练模型,利用反向传播更新参数,获得训练结果;根据所述训练结果,获得所述超参数信息。
具体而言,worker根据分配的任务进行训练,如图2所示,worker获取参数取值信息即当前参数取值和训练数据中随机获取的一部分训练数据进行模型训练,其中当前参数取值为目前master中更新的超参数信息,若初次训练,则当前参数取值为初始参数,若已经有训练更新的参数,则当前参数取值为经过训练输出的超参数信息,由于master分发给了多个worker执行任务,每个worker的训练计算速度不同,已经完成训练计算的worker根据master的任务指令训练数据并将训练结果的返回至master,master接收到训练结果对参数进行更新,并将超参数信息返回给client,client根据超参数进行分发模型训练任务,利用前一轮训练得到的超参数信息对下一轮的训练任务进行指导,使得参数的生成具有方向性,极大的缩短了参数寻优的时间,各个worker完成一个训练之后,不需要等待其它节点,直接去更新模型的参数。Worker在执行任务时,先利用获取的当前参数取值和随机的一部分训练数据进行向前传播即计算网络预测结果,然后执行任务指令利用反向传播对得到的梯度对参数进行修正,在每一轮迭代时,不同设备会读取参数最新的取值,根据当前参数的取值和随机获取的小部分训练数据,不同设备各自运行反向传播的过程并独立地更新参数,在前面训练的结果上继续进行训练,提高训练效果和明确参数训练的方向。应理解反向传播是一种适合于多层神经元网络的学习算法,它建立在梯度下降法的基础上。BP网络的输入输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。它的信息处理能力来源于简单非线性函数的多次复合,因此具有很强的函数复现能力。本申请实施例基于TensorFlow分布式异步训练机制,可以异步进行参数的更新,加快了自动生成参数的速度,同时在超参数训练更新过程中集成了贝叶斯、基于梯度的优化方法、进化优化等自动寻优算法,使用多种算法的参数寻优并缩短了寻优时间。
步骤7:基于前一轮获得的超参数信息,重复步骤2-6,获得模型学习衰减率,当所述模型学习衰减率满足预设值时停止训练。
进一步的,所述预设值为0。
具体而言,根据前一轮训练得到的模型训练结果对master中的参数进行更新和存储,并将超参数信息返回至client,client参考该轮的超参数信息进行下一轮的任务分发,下一轮worker训练的时候选取前一轮的参数进行任务执行和训练,不断迭代,提高了参数求优的速度并明确了方向,同时client接收到反馈的超参数信息后,会对模型的学习衰减率进行计算和判断,当模型的学习衰减率达到了预设要求时,则当前的参数为最优参数,优选的学习衰减率为0,在设定预设值时可以为接近0的其他数,满足预设要求时停止训练,将最优参数返回给master,得到最优参数及对应的僵尸网络模型,可见本申请实施例使用了异步分布式机制,同时利用图的复写和分区来实现分布式计算,整个系统可以看成包含了一个主节点和若干从节点,参考图2,主节点主要是任务的分发、监控任务、参数的更新和储存即master,从节点即各个worker根据主节点分发的任务进行计算并传回参数,达到了通过分布式自动寻参,有效缩短寻参时间并利用最优超参数提高模型精准度,同时具有框架、操作简单编写代码难度低,实现快速且高效的训练僵尸网检测模型的技术效果,解决了现有技术中寻参时间消耗大,存在建立僵尸网络模型不准确及建模时间长的技术问题。
实施例二
基于与前述实施例中一种基于分布式的僵尸网络模型构建方法同样发明构思,本发明还提供了一种基于分布式的僵尸网络模型构建装置,如图3所示,所述装置包括:
第一获得单元11,所述第一获得单元11用于在client上设置超参数要求,获得计算任务图;
第一发送单元12,所述第一发送单元12用于将所述计算任务图发送至master;
第二获得单元13,所述第二获得单元13用于master根据所述计算任务图,获得任务信息集合;
第三获得单元14,所述第三获得单元14用于根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker;
第一执行单元15,所述第一执行单元15用于基于所述任务指令,通过worker进行模型训练,获得超参数信息,并将所述超参数信息返回至client;
第二执行单元16,所述第二执行单元16用于根据所述超参数信息,client制定下一轮模型计算任务;
第三执行单元17,所述第三执行单元17用于基于前一轮获得的超参数信息,worker重复进行训练,获得超参数信息,并通过client计算模型学习衰减率,当所述模型学习衰减率满足预设值时停止训练。
进一步的,所述装置还包括:
第四获得单元,所述第四获得单元用于根据所述超参数要求,获得初始参数;
第五获得单元,所述第五获得单元用于根据所述初始参数,获得所述计算任务图。
进一步的,所述装置还包括:
第六获得单元,所述第六获得单元用于根据所述初始参数,获得计算任务信息;
第一转换单元,所述第一转换单元用于将所述计算任务信息转换成graph数据流;
第七获得单元,所述第七获得单元用于基于所述graph数据流,获得所述计算任务图。
进一步的,所述装置还包括:
第八获得单元,所述第八获得单元用于获得worker信息集合;
第九获得单元,所述第九获得单元用于根据所述任务信息集合,worker信息集合,获得分配关系,所述分配关系为任务信息与worker之间的分配对应关系;
第十获得单元,所述第十获得单元用于根据所述分配关系、所述任务信息集合,获得第一任务信息和第一worker、第二任务信息和第二worker、直到第N任务和第Nworker,其中,N为正整数;
第十一获得单元,所述第十一获得单元用于根据所述第一任务信息,获得任务指令,并将所述任务指令分发至第一worker,以此类推将第N任务的任务指令分发至第Nworker进行执行。
进一步的,所述装置还包括:
第十二获得单元,所述第十二获得单元用于获得参数取值信息、训练数据;
第十三获得单元,所述第十三获得单元用于根据所述参数取值信息、训练数据,执行所述任务指令训练模型,利用反向传播更新参数,获得训练结果;
第十四获得单元,所述第十四获得单元用于根据所述训练结果,获得所述超参数信息。
进一步的,所述预设值为0。
前述图1实施例一中的一种基于分布式的僵尸网络模型构建方法的各种变化方式和具体实例同样适用于本实施例的一种基于分布式的僵尸网络模型构建装置,通过前述对一种基于分布式的僵尸网络模型构建方法的详细描述,本领域技术人员可以清楚的知道本实施例中一种基于分布式的僵尸网络模型构建装置的实施方法,所以为了说明书的简洁,在此不再详述。
示例性电子设备
下面参考图4来描述本申请实施例的计算机设备。
图4图示了根据本申请实施例的计算机设备的结构示意图。
基于与前述实施例中一种基于分布式的僵尸网络模型构建方法的发明构思,本发明还提供一种计算机设备,其上存储有计算机程序,该程序被处理器执行时实现前文所述一种基于分布式的僵尸网络模型构建方法的任一方法的步骤。
其中,在图4中,总线架构(用总线300来代表),总线300可以包括任意数量的互联的总线和桥,总线300将包括由处理器302代表的一个或多个处理器和存储器304代表的存储器的各种电路链接在一起。总线300还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口305在总线300和接收器301和发送器303之间提供接口。接收器301和发送器303可以是同一个元件,即收发机,提供用于在传输介质上与各种其他系统通信的单元。
处理器302负责管理总线300和通常的处理,而存储器304可以被用于存储处理器302在执行操作时所使用的数据。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
本申请实施例提供了一种基于分布式的僵尸网络模型构建方法和装置,通过步骤1:在client上设置超参数要求,获得计算任务图;步骤2:将所述计算任务图发送至master;步骤3:master根据所述计算任务图,获得任务信息集合;步骤4:根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker;步骤5:基于所述任务指令,通过worker进行模型训练,获得超参数信息,并将所述超参数信息返回至client;步骤6:根据所述超参数信息,client制定下一轮模型计算任务;步骤7:基于前一轮获得的超参数信息,重复步骤2-6,获得模型学习衰减率,当所述模型学习衰减率满足预设值时停止训练。达到了通过将任务分发给多个执行主体进行分布训练,并将每次训练结果反馈给主机指导下一轮的参数生成,使参数的生成有方向性,实现分布式自动寻参,极大的缩短了参数寻优的时间,并利用最优超参数提高了僵尸模型精准度的技术效果,从而解决了现有技术中寻参时间消耗大,存在建立僵尸网络模型不准确及建模时间长的技术问题。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的系统。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (8)

1.一种基于分布式的僵尸网络模型构建方法,其中,所述方法包括:
步骤1:在client上设置超参数要求,获得计算任务图;
步骤2:将所述计算任务图发送至master;
步骤3:master根据所述计算任务图,获得任务信息集合;
步骤4:根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker;
步骤5:基于所述任务指令,通过worker进行模型训练,获得超参数信息,并将所述超参数信息返回至client;
步骤6:根据所述超参数信息,client制定下一轮模型计算任务;
步骤7:基于前一轮获得的超参数信息,重复步骤2-6,获得模型学习衰减率,当所述模型学习衰减率满足预设值时停止训练。
2.如权利要求1所述的方法,其中,所述步骤1:在client上设置超参数要求,获得计算任务图,包括:
根据所述超参数要求,获得初始参数;
根据所述初始参数,获得所述计算任务图。
3.如权利要求2所述的方法,其中,所述根据所述初始参数,获得所述计算任务图,包括:
根据所述初始参数,获得计算任务信息;
将所述计算任务信息转换成graph数据流;
基于所述graph数据流,获得所述计算任务图。
4.如权利要求1所述的方法,其中,所述步骤4:根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker,包括:
获得worker信息集合;
根据所述任务信息集合,worker信息集合,获得分配关系,所述分配关系为任务信息与worker之间的分配对应关系;
根据所述分配关系、所述任务信息集合,获得第一任务信息和第一worker、第二任务信息和第二worker、直到第N任务和第Nworker,其中,N为正整数;
根据所述第一任务信息,获得任务指令,并将所述任务指令分发至第一worker,以此类推将第N任务的任务指令分发至第Nworker进行执行。
5.如权利要求1所述的方法,其中,所述步骤5:基于所述任务指令,通过worker进行模型训练,获得超参数信息,包括:
获得参数取值信息、训练数据;
根据所述参数取值信息、训练数据,执行所述任务指令训练模型,利用反向传播更新参数,获得训练结果;
根据所述训练结果,获得所述超参数信息。
6.如权利要求1所述的方法,其中,所述预设值为0。
7.一种基于分布式的僵尸网络模型构建装置,其中,所述装置包括:
第一获得单元,所述第一获得单元用于在client上设置超参数要求,获得计算任务图;
第一发送单元,所述第一发送单元用于将所述计算任务图发送至master;
第二获得单元,所述第二获得单元用于master根据所述计算任务图,获得任务信息集合;
第三获得单元,所述第三获得单元用于根据所述任务信息集合,获得任务指令,并将所述任务指令分发给对应的worker;
第一执行单元,所述第一执行单元用于基于所述任务指令,通过worker进行模型训练,获得超参数信息,并将所述超参数信息返回至client;
第二执行单元,所述第二执行单元用于根据所述超参数信息,client制定下一轮模型计算任务;
第三执行单元,所述第三执行单元用于基于前一轮获得的超参数信息,worker重复进行训练,获得超参数信息,并通过client计算模型学习衰减率,当所述模型学习衰减率满足预设值时停止训练。
8.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现权利要求1-6任一项所述方法的步骤。
CN202111483131.6A 2021-12-07 2021-12-07 一种基于分布式的僵尸网络模型构建方法和装置 Pending CN114254735A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111483131.6A CN114254735A (zh) 2021-12-07 2021-12-07 一种基于分布式的僵尸网络模型构建方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111483131.6A CN114254735A (zh) 2021-12-07 2021-12-07 一种基于分布式的僵尸网络模型构建方法和装置

Publications (1)

Publication Number Publication Date
CN114254735A true CN114254735A (zh) 2022-03-29

Family

ID=80791743

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111483131.6A Pending CN114254735A (zh) 2021-12-07 2021-12-07 一种基于分布式的僵尸网络模型构建方法和装置

Country Status (1)

Country Link
CN (1) CN114254735A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114817411A (zh) * 2022-06-23 2022-07-29 支付宝(杭州)信息技术有限公司 分布式图学习方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114817411A (zh) * 2022-06-23 2022-07-29 支付宝(杭州)信息技术有限公司 分布式图学习方法和装置
CN114817411B (zh) * 2022-06-23 2022-11-01 支付宝(杭州)信息技术有限公司 分布式图学习方法和装置

Similar Documents

Publication Publication Date Title
CN109947567B (zh) 一种多智能体强化学习调度方法、系统及电子设备
CN114756383B (zh) 一种分布式计算方法、系统、设备及存储介质
CN109993299A (zh) 数据训练方法及装置、存储介质、电子装置
CN104408518B (zh) 基于粒子群优化算法的神经网络学习优化方法
CN111429142B (zh) 一种数据处理方法、装置及计算机可读存储介质
CN111914378B (zh) 一种单振幅量子计算模拟方法及装置
CN111625218B (zh) 一种自定义库开发的大数据处理方法及系统
CN114254735A (zh) 一种基于分布式的僵尸网络模型构建方法和装置
Gand et al. A fuzzy controller for self-adaptive lightweight edge container orchestration
CN109491956B (zh) 一种异构协同计算系统
CN111340192B (zh) 网络路径分配模型训练方法、路径分配方法、以及装置
CN111612155B (zh) 一种分布式机器学习系统及适用于其的通信调度方法
KR20220098949A (ko) 딥러닝 모델 분산 학습 시스템 및 방법
CN113033806A (zh) 一种训练深度强化学习模型的方法、装置以及调度方法
CN115879543B (zh) 一种模型训练方法、装置、设备、介质及系统
CN115794405A (zh) 一种基于SSA-XGboost算法的大数据处理框架的动态资源分配方法
CN113222134B (zh) 一种类脑计算系统、方法及计算机可读存储介质
CN115292044A (zh) 数据处理方法、装置、电子设备及存储介质
CN115618532A (zh) 一种网络系统仿真方法及相关装置
Moura et al. fGrid: Uncertainty variables modeling for computational grids using fuzzy logic
EP3701679B1 (en) Network resource allocation
Noor et al. Performance of parallel distributed bat algorithm using MPI on a PC cluster
Nozdrzykowski et al. Testing the significance of parameters of models estimating execution time of parallel program loops according to the Open MPI Standard
CN116501828B (zh) 基于非结构化数据集的服务器无感知向量查询方法和系统
CN115473834B (zh) 监控任务调度方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination