CN115002125A - 一种具有Web负载均衡技术的系统 - Google Patents

一种具有Web负载均衡技术的系统 Download PDF

Info

Publication number
CN115002125A
CN115002125A CN202210459752.9A CN202210459752A CN115002125A CN 115002125 A CN115002125 A CN 115002125A CN 202210459752 A CN202210459752 A CN 202210459752A CN 115002125 A CN115002125 A CN 115002125A
Authority
CN
China
Prior art keywords
server
response time
nginx
load
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210459752.9A
Other languages
English (en)
Inventor
孟利民
张舒楠
蒋维
林梦嫚
应颂翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202210459752.9A priority Critical patent/CN115002125A/zh
Publication of CN115002125A publication Critical patent/CN115002125A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/50Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computer And Data Communications (AREA)

Abstract

一种具有Web负载均衡技术的系统,Nginx服务器接收用户通过客户端设备发送的请求并将执行后的结果返回给用户,Nginx服务器在收到用户发送的请求后根据负载均衡算法选择适当的Web服务器建立双向通信,Web服务器根据用户发送的请求向数据库查询并获取相对应的数据;模型训练服务器接收Nginx服务器中的数据并通过机器学习算法计算出预测值并返回给Nginx服务器;数据库服务器包括MySQL数据库和Redis数据库,其中MySQL数据库用来存放持久化数据,Redis数据库作为缓存使用。本发明还包括一种具有Web负载均衡技术的系统的使用方法。本发明减轻Nginx负载均衡器的计算消耗,提高了Nginx服务器的运算能力。

Description

一种具有Web负载均衡技术的系统
技术领域:
本发明涉及互联网技术领域,特别是涉及一种Web服务器的负载均衡技术系统。
背景技术
现如今,互联网在人们的日常生活中起到了越来越大的影响,特别是在金融业务和电子商务等领域,借助互联网的线上模式逐渐成为了主流。但同时,随着越来越多的人开始使用互联网,爆炸式增长的用户请求给Web服务器带来了巨大的压力,因此,如何高效地处理高并发问题成为了一大研究热点。
2021年天猫双十一购物节的成交额高达5403亿元,这期间大量用户给Web服务器带来了巨大的压力。当用户访问的并发数超过一定临界点后,Web服务器会形成阻塞,造成用户的访问请求难以准确及时地被响应。所以有效地应对庞大且突发性的请求,确保Web服务器能够承受大量的用户请求,并且为用户提供稳定可靠的服务,已经成为互联网应用开发中不可忽视的问题。
发明内容
为了解决以上问题,本发明提供了一种基于预测的负载均衡技术的系统及方法,使用BP神经网络对服务器相应时间进行实时预测,将预测的结果作为服务器分配的重要依据,根据各个服务器的空闲程度,通过负载均衡技术将不同用户的请求合理地分配给集群中的各个业务服务器,减少系统的响应时间,同时促进资源节约。
本发明的目的可以通过以下技术方案实现:
一种具有Web负载均衡技术的系统,包括数据库服务器,Nginx 服务器,Web服务器集群,模型训练服务器;其中Nginx服务器接收用户通过客户端设备发送的请求并将执行后的结果返回给用户, Nginx服务器在收到用户发送的请求后根据负载均衡算法选择适当的Web服务器建立双向通信,Web服务器根据用户发送的请求向数据库查询并获取相对应的数据。模型训练服务器接收Nginx服务器中的数据并通过机器学习算法计算出预测值并返回给Nginx服务器。所述的数据库服务器包括MySQL数据库和Redis数据库,其中MySQL数据库用来存放持久化数据,Redis数据库作为缓存使用,在查找数据的过程中,首先查找缓存中的数据,即Redis中的数据,若成功找到则会返回相应的结果;若未找到所需数据就重新查找MySQL数据库,并通过查询到的结果更新Redis数据库。
所述的Web服务器集群是多个业务服务器组成的集群,处理客户端的不同请求,执行用户发送的请求中的内容进行或访问对应的数据库。
所述的Nginx前端服务器处理用户发起的动态请求,通过预先配置的负载均衡算法,将请求分配到所述的Web服务器集群中的各个业务服务器;
所述的模型训练服务器是设置预测各业务服务器的响应时间。 Nginx服务器的接收日志持续地收集对各业务服务器的响应时间,并将数据上传至模型训练服务器。模型训练服务器将收集到的时间信息按照星期和时间进行分组,同时计算出每个时间段内的平均响应时间,再将得到的数据通过BP神经网络算法预测出未来一周内各个服务器在每个时间段内的平均响应时间,将结果作为判断服务器空闲状态的重要依据返回给Nginx服务器。
所述的负载均衡算法通过分析和Web服务器集群中各个业务服务器处理请求的响应时间参数和模型训练服务器返回的处理结果,将所得的结果根据调度策略预测下一个时间段服务器集群能否承受高并发带来的压力,进而判断是否需要增加或减少服务器实例,从而选出最合适的业务服务器,从而将请求更好地分配给各业务服务器,提高Web服务器对抗高并发的能力,增强系统的稳定性和可靠性。
所述的机器学习算法在模型训练服务器在收到数据后,以一小时为间隔计算每天每个时间段内服务器的平均响应时间。假设一天某一时间段内的平均响应时间为Tw(t),其中t为时间,其取值范围是 (1,2,...,24),w为当天的星期,取值范围是(1,2,...,7)。服务器在一天的响应时间为Td=[Tw(1),Tw(2),...,Tw(24)],其中d为当天日期,那么之后一天的响应时间为Td+1=[T(w+1)mod7(1),T(w+1)mod7(2),...,T(w+1)mod7(24)]。将Tw(t) 和w作为神经网络的输入,T(w+1)mod7(t)作为输出,即神经网络拥有2 个输入神经元和1个输出神经元。隐藏神经元的个数m通常由公式
Figure BDA0003620095030000031
得到,并且根据具体实验结果进行调整,其中n为输入层节点个数,l为输出层节点个数。同时,由于响应时间和星期两组数据差距巨大,需要在将数据输入BP神经网络前,需要对数据进行归一化处理,使用公式如下:
Figure BDA0003620095030000041
其中x为原始输入值,y为归一化后的输入值,max和min分别为数据中的最大最小值。因此,根据以下策略进行BP神经网络预测:将 W=[w1,w2,...,w24]和它的归一化值作为一组输入,Td+1归一化值作为输出。反归一化后,将Td+1提供给后续的步骤使用。
所述的调度策略将工作中的服务器能承受的负载上限和下一个时间段的预测负载进行比较,根据结果做出相应的调整。使用公式:
Figure BDA0003620095030000042
计算得到当前工作中的服务器可承载的负载上限P,其中Tt表示当前时间段的平均响应时间,Tt+1表示下一时间段的预测响应时间,N表示服务器总数,k表示已经使用的服务器数量,Tc表示该天服务器的平均响应时间,Tm表示当天服务器的最大响应时间。设置调度策略所能接受的负载上限T和调度所能接受的负载下限D。①当k<N并且
Figure BDA0003620095030000043
表示当前工作的服务器已达到负载上限,需要将新的用户请求发送至其他空闲的服务器。②当k>2且
Figure BDA0003620095030000044
Figure BDA0003620095030000045
表示当前工作的服务器未达到调度策略所接受的负载下限,可以闲置一个服务器。③当k=2且
Figure BDA0003620095030000046
且Td+2- Td+1<0,则空闲一个服务器。其中Td+2为两天后的预测值。
本发明的一种具有Web负载均衡技术的系统的使用方法,包括:
S1、Nginx服务器启动后,会通过读取配置文件,进行全局初始化。Nginx的接收日志会持续获取Web服务器集群中各个业务服务器的响应时间参数。
S2、Nginx服务器会将响应时间信息发送到模型训练服务器,之后模型训练服务器会根据预先设置好的BP神经网络算法计算各个业务服务器对应时间段的预测响应时间,通过预测响应时间计算出预测负载值,并将其与负载上下限进行比较;
S3、Nginx服务器会根据比较的结果,对各业务服务器的权值做出相应的处理。当预测负载值超过负载上限时,系统会将新的用户请求发送至空闲的服务器中,当预测负载值低于负载下限时,系统会将不稳定的服务器闲置。
本发明的有益效果:
(1)新的负载均衡算法通过读取Nginx接收日志获取Web服务
器集群中各服务器的响应时间信息,对未来一周内每个服务器响应时间进行预测,帮助选出相对空闲的服务器进行下一步判断。
(2)本系统中加入一个模型训练服务器专门用于运行权重计算的算法,帮助减轻Nginx负载均衡器的计算消耗,提高了Nginx服务器的运算能力。
附图说明
图1是由本发明的系统框架图。
图2是本发明的基于Nginx加权轮询算法的动态自适应负载均衡算法的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,一种具有Web负载均衡技术的系统,包括Nginx 服务器,Web服务器集群、模型训练服务器和数据库服务器;
所述的数据库服务器包括MySQL数据库和Redis数据库,其中 MySQL数据库用来存放持久化数据,Redis数据库作为缓存使用。通常情况下,用户常用的数据会缓存到Redis中,然后在同步到MySQL 数据库中,这么做可以有效地加快数据的运行速度和查询速度。
所述的负载均衡算法是在Nginx加权轮询算法的基础上改进实现的,算法的实现主要是通过对Nginx源代码的http文件夹下的 ngx_http_upstream_round_robin.c文件进行修改,实现Nginx服务器读取Web服务器集群中各个业务服务器处理请求的响应时间信息,并将结果上传至模型训练服务器。模型训练服务器会将获取到的响应时间参数通过机器学习算法对未来一周内每个时间段的响应时间进行预测。最后将上述获得到的数据运用到Nginx负载均衡算法中,作为衡量各业务服务器负载能力大小的标准。
所述的机器学习算法为Nginx服务器会以一个已设定的时间为基准周期性地获取各业务服务器在每个时间段的平均响应时间传送给模型训练服务器,模型训练服务器会对接收到的数据信息通过BP神经网络对对应时间段每个服务器的响应时间进行预测,并通过计算结果预测未来下一个时间段内访问量和负载值,并通过调度策略选择增加一个服务器实例或减少一个实例,当客户端向服务器发起请求时,负载均衡算法会根据调度策略的结果选择最适合的业务服务器。
所述的Web服务器集群通过配置多个端口实现。
一种基于预测的负载均衡技术,步骤如下:
S1、Nginx服务器会读取接收日志中Web服务器集群最后一次响应时间参数和各业务服务器在每个时间段的响应时间参数,并将数据上传至模型训练服务器;
S2、模型训练服务器通过BP神经网络算法计算得出各业务服务器在未来一周内每个时间段的响应时间,将计算结果作为预测值带入调度策略的负载计算的公式中,将计算结果作为下一时间段的预测负载值;
S3、Nginx服务器会根据公式计算当前忙碌中的服务器集群的负载,当负载大于调度策略所设置的负载上限,则将用户请求发送至其他空闲的服务器中;当负载小于调度策略所设置的负载下限,则将一个不稳定的服务器闲置;
S4、当Nginx服务器对Web服务器集群中的所有服务器进行选择并判断后,则将客户端的请求发送给选取出来的最优服务器。
所述的步骤S1中,通过Nginx服务器获取到的各个服务器的响应时间信息,通过BP神经网络算法计算得出每个服务器的预测响应时间Td+1
所述的步骤S2中,使用公式:
Figure BDA0003620095030000071
计算得到当前工作中的服务器可承载的预测负载P,其中Tt表示当前时间段的平均响应时间,Tt+1表示下一时间段的预测响应时间, N表示服务器总数,k表示已经使用的服务器数量,Tc表示该天服务器的平均响应时间,Tm表示当天服务器的最大响应时间。P表示下一个时间段工作中的服务器预测会达到的负载值,当负载值高于提前设置好的负载上限时,表面当前工作中的服务器可能会无法负担用户带来的高并发,比较好的处理方法是选择一台相对空闲的服务器参与请求的处理中,即增加一个实例。
所述的步骤S3中,计算出第i台业务服务器处理n次请求的响应时间方差值
Figure BDA0003620095030000081
其中
Figure BDA0003620095030000082
将方差作为衡量该业务服务器负载稳定性的指标,
Figure BDA0003620095030000083
值越小则表示该业务服务器的负载状况越稳定,反之则表示服务器的负载越不稳定。同时也将
Figure BDA0003620095030000084
作为Web服务器集群中调节业务服务器权值的因素;
算法的实施步骤为:
(1)初始化Nginx服务器,通过读取接收日志获取Web服务器集群中各个业务服务器在每个时间段的响应时间信息和该集群最后一次的响应时间信息,通过BP神经网络算法计算出每台服务器在未来每个对应时间段的预测响应时间;
(2)选取Web服务器集群中的其中一台服务器,判断该服务器的响应时间是否小于集群的预测响应时间。若该服务器的响应时间小于集群的响应时间,则表明该服务器处于相对空闲的状态;
(3)对于工作中的服务器下一个时间段的负载值进行预测,判断目前的服务器能否承受即将到来的高并发情况,如果预测负载值超出了提前设置好的负载上限,则增加一个实例,即将新的用户请求发送到空闲的服务器中。当Nginx服务器对Web服务器集群中所有的业务服务器都进行了上述判断,则将客户端的请求发送给选择出的最优服务器。

Claims (2)

1.一种具有Web负载均衡技术的系统,其特征在于:包括数据库服务器,Nginx服务器,Web服务器集群,模型训练服务器;其中Nginx服务器接收用户通过客户端设备发送的请求并将执行后的结果返回给用户,Nginx服务器在收到用户发送的请求后根据负载均衡算法选择适当的Web服务器建立双向通信,Web服务器根据用户发送的请求向数据库查询并获取相对应的数据;模型训练服务器接收Nginx服务器中的数据并通过机器学习算法计算出预测值并返回给Nginx服务器;所述的数据库服务器包括MySQL数据库和Redis数据库,其中MySQL数据库用来存放持久化数据,Redis数据库作为缓存使用,在查找数据的过程中,首先查找缓存中的数据,即Redis中的数据,若成功找到则会返回相应的结果;若未找到所需数据就重新查找MySQL数据库,并通过查询到的结果更新Redis数据库;
所述的Web服务器集群是多个业务服务器组成的集群,处理客户端的不同请求,执行用户发送的请求中的内容进行或访问对应的数据库;
所述的Nginx前端服务器处理用户发起的动态请求,通过预先配置的负载均衡算法,将请求分配到所述的Web服务器集群中的各个业务服务器;
所述的模型训练服务器是设置预测各业务服务器的响应时间;Nginx服务器的接收日志持续地收集对各业务服务器的响应时间,并将数据上传至模型训练服务器;模型训练服务器将收集到的时间信息按照星期和时间进行分组,同时计算出每个时间段内的平均响应时间,再将得到的数据通过BP神经网络算法预测出未来一周内各个服务器在每个时间段内的平均响应时间,将结果作为判断服务器空闲状态的重要依据返回给Nginx服务器;
所述的负载均衡算法通过分析和Web服务器集群中各个业务服务器处理请求的响应时间参数和模型训练服务器返回的处理结果,将所得的结果根据调度策略预测下一个时间段服务器集群能否承受高并发带来的压力,进而判断是否需要增加或减少服务器实例,从而选出最合适的业务服务器,从而将请求更好地分配给各业务服务器,提高Web服务器对抗高并发的能力,增强系统的稳定性和可靠性;
所述的机器学习算法在模型训练服务器在收到数据后,以一小时为间隔计算每天每个时间段内服务器的平均响应时间;假设一天某一时间段内的平均响应时间为Tw(t),其中t为时间,其取值范围是(1,2,...,24),w为当天的星期,取值范围是(1,2,...,7);服务器在一天的响应时间为Td=[Tw(1),Tw(2),...,Tw(24)],其中d为当天日期,那么之后一天的响应时间为Td+1=[T(w+1)mod7(1),T(w+1)mod7(2),...,T(w+1)mod7(24)];将Tw(t)和w作为神经网络的输入,T(w+1)mod7(t)作为输出,即神经网络拥有2个输入神经元和1个输出神经元;隐藏神经元的个数m通常由公式
Figure FDA0003620095020000021
得到,并且根据具体实验结果进行调整,其中n为输入层节点个数,l为输出层节点个数;同时,由于响应时间和星期两组数据差距巨大,需要在将数据输入BP神经网络前,需要对数据进行归一化处理,使用公式如下:
Figure FDA0003620095020000022
其中x为原始输入值,y为归一化后的输入值,max和min分别为数据中的最大最小值;因此,根据以下策略进行BP神经网络预测:将W=[w1,w2,...,w24]和它的归一化值作为一组输入,Td+1归一化值作为输出;反归一化后,将Td+1提供给后续的步骤使用;
所述的调度策略将工作中的服务器能承受的负载上限和下一个时间段的预测负载进行比较,根据结果做出相应的调整,使用公式:
Figure FDA0003620095020000031
计算得到当前工作中的服务器可承载的负载上限P,其中Tt表示当前时间段的平均响应时间,Tt+1表示下一时间段的预测响应时间,N表示服务器总数,k表示已经使用的服务器数量,Tc表示该天服务器的平均响应时间,Tm表示当天服务器的最大响应时间;设置调度策略所能接受的负载上限T和调度所能接受的负载下限D;①当k<N并且
Figure FDA0003620095020000032
表示当前工作的服务器已达到负载上限,需要将新的用户请求发送至其他空闲的服务器;②当k>2且
Figure FDA0003620095020000033
Figure FDA0003620095020000034
表示当前工作的服务器未达到调度策略所接受的负载下限,可以闲置一个服务器;③当k=2且
Figure FDA0003620095020000035
且Td+2-Td+1<0,则空闲一个服务器;其中Td+2为两天后的预测值。
2.如权利要求1所述的一种具有Web负载均衡技术的系统的使用方法,其特征在于:包括:
S1、Nginx服务器启动后,会通过读取配置文件,进行全局初始化;Nginx的接收日志会持续获取Web服务器集群中各个业务服务器的响应时间参数;
S2、Nginx服务器会将响应时间信息发送到模型训练服务器,之后模型训练服务器会根据预先设置好的BP神经网络算法计算各个业务服务器对应时间段的预测响应时间,通过预测响应时间计算出预测负载值,并将其与负载上下限进行比较;
S3、Nginx服务器会根据比较的结果,对各业务服务器的权值做出相应的处理;当预测负载值超过负载上限时,系统会将新的用户请求发送至空闲的服务器中,当预测负载值低于负载下限时,系统会将不稳定的服务器闲置。
CN202210459752.9A 2022-04-24 2022-04-24 一种具有Web负载均衡技术的系统 Pending CN115002125A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210459752.9A CN115002125A (zh) 2022-04-24 2022-04-24 一种具有Web负载均衡技术的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210459752.9A CN115002125A (zh) 2022-04-24 2022-04-24 一种具有Web负载均衡技术的系统

Publications (1)

Publication Number Publication Date
CN115002125A true CN115002125A (zh) 2022-09-02

Family

ID=83025850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210459752.9A Pending CN115002125A (zh) 2022-04-24 2022-04-24 一种具有Web负载均衡技术的系统

Country Status (1)

Country Link
CN (1) CN115002125A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1434393A (zh) * 2003-02-24 2003-08-06 武汉大学 一种集群服务器的动态负载均衡方法
CN101882105A (zh) * 2010-06-01 2010-11-10 华南理工大学 一种测试Web网页并发环境下响应时间的方法
CN104580538A (zh) * 2015-02-12 2015-04-29 山东大学 一种提高Nginx服务器负载均衡效率的方法
KR20190012928A (ko) * 2017-07-31 2019-02-11 한국전자통신연구원 부하분산 장치 및 방법
CN110012098A (zh) * 2019-04-04 2019-07-12 浙江工业大学 一种web高并发访问处理系统及方法
CN110933139A (zh) * 2019-11-05 2020-03-27 浙江工业大学 一种解决Web服务器高并发的系统及方法
CN113110933A (zh) * 2021-03-11 2021-07-13 浙江工业大学 一种具有Nginx负载均衡技术的系统
CN113806094A (zh) * 2021-09-23 2021-12-17 宝信软件(武汉)有限公司 一种基于深度学习的云平台资源动态调度方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1434393A (zh) * 2003-02-24 2003-08-06 武汉大学 一种集群服务器的动态负载均衡方法
CN101882105A (zh) * 2010-06-01 2010-11-10 华南理工大学 一种测试Web网页并发环境下响应时间的方法
CN104580538A (zh) * 2015-02-12 2015-04-29 山东大学 一种提高Nginx服务器负载均衡效率的方法
KR20190012928A (ko) * 2017-07-31 2019-02-11 한국전자통신연구원 부하분산 장치 및 방법
CN110012098A (zh) * 2019-04-04 2019-07-12 浙江工业大学 一种web高并发访问处理系统及方法
CN110933139A (zh) * 2019-11-05 2020-03-27 浙江工业大学 一种解决Web服务器高并发的系统及方法
CN113110933A (zh) * 2021-03-11 2021-07-13 浙江工业大学 一种具有Nginx负载均衡技术的系统
CN113806094A (zh) * 2021-09-23 2021-12-17 宝信软件(武汉)有限公司 一种基于深度学习的云平台资源动态调度方法

Similar Documents

Publication Publication Date Title
CN109857546B (zh) 基于Lyapunov优化的多服务器移动边缘计算卸载方法及装置
US6938256B2 (en) System for balance distribution of requests across multiple servers using dynamic metrics
CN109120715A (zh) 一种云环境下动态负载均衡方法
CN102227121B (zh) 基于机器学习的分布式缓存策略自适应切换方法及系统
CN113110933B (zh) 一种具有Nginx负载均衡技术的系统
CN110933139A (zh) 一种解决Web服务器高并发的系统及方法
CN108416465B (zh) 一种移动云环境下的工作流优化方法
Huang et al. A lightweight collaborative deep neural network for the mobile web in edge cloud
CN111132235A (zh) 基于改进hrrn算法和多属性决策的移动卸载迁移算法
US20050021511A1 (en) System and method for load balancing in database queries
CN116302509A (zh) 一种基于CNN-Transformer的云服务器动态负载优化方法及装置
CN103281374A (zh) 一种云存储中数据快速调度的方法
Zhang et al. FedMDS: An efficient model discrepancy-aware semi-asynchronous clustered federated learning framework
CN114781717A (zh) 网点设备推荐方法、装置、设备和存储介质
Mostafa et al. An intelligent dynamic replica selection model within grid systems
Li et al. An intelligent adaptive algorithm for servers balancing and tasks scheduling over mobile fog computing networks
CN111580943B (zh) 一种面向低时延边缘计算中多跳卸载的任务调度方法
CN116483585B (zh) 一种基于边缘计算的多服务预部署方法
CN113360245A (zh) 基于移动云计算深度强化学习的物联网设备任务下载方法
CN115002125A (zh) 一种具有Web负载均衡技术的系统
Krishna Priya et al. Crossover-based improved sine cosine algorithm for multimedia content distribution in cloud environment
CN115345306A (zh) 深度神经网络调度方法及调度器
Nair et al. Pre-allocation strategies of computational resources in cloud computing using adaptive resonance theory-2
CN115277708B (zh) 一种流媒体服务器负载动态分配方法
CN112954022A (zh) 一种基于智能变电站的多并发实时通信方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination