CN111049919A - 一种用户请求的处理方法、装置、设备及存储介质 - Google Patents
一种用户请求的处理方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111049919A CN111049919A CN201911316198.3A CN201911316198A CN111049919A CN 111049919 A CN111049919 A CN 111049919A CN 201911316198 A CN201911316198 A CN 201911316198A CN 111049919 A CN111049919 A CN 111049919A
- Authority
- CN
- China
- Prior art keywords
- user request
- server
- request
- determining
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1008—Server selection for load balancing based on parameters of servers, e.g. available memory or workload
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1014—Server selection for load balancing based on the content of a request
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明公开了一种用户请求的处理方法、装置、设备及存储介质,该用户请求的处理方法,包括:获取用户请求,并根据所述用户请求确定服务器序列;判断所述用户请求是否包括预设字段;若是,则确定所述服务器序列的各个服务器的负载系数;根据所述各个服务器的负载系数确定各个服务器对应的所述用户请求的发送概率,以根据所述发送概率发送并处理所述用户请求。本发明实施例的技术方案,通过判断用户请求是否包括预设字段,若是,则根据各个服务器的负载情况确定该用户请求的发送概率,以一定概率发送和处理用户请求,实现了用户请求的限流,保证了服务器的运行质量。
Description
技术领域
本发明实施例涉及服务器技术领域,尤其涉及一种用户请求的处理方法、装置、设备及存储介质。
背景技术
随着互联网技术的快速发展,手机终端的应用程序的功能也变得越来越复杂,从而对服务器系统的要求也变得越来越高。
现有的服务器系统主要用于接收手机端的请求,并对其进行响应。请求响应方法单一,无法实现对请求响应过程的监控。
发明内容
本发明提供了一种用户请求的处理方法、装置、设备及存储介质,实现了用户请求的自适应响应。
第一方面,本发明实施例提供了一种用户请求的处理方法,该用户请求的处理方法,包括:
获取用户请求,并根据所述用户请求确定服务器序列;
判断所述用户请求是否包括预设字段;
若是,则确定所述服务器序列的各个服务器的负载系数;
根据所述各个服务器的负载系数确定各个服务器对应的所述用户请求的发送概率,以根据所述发送概率发送并处理所述用户请求。
第二方面,本发明实施例还提供了一种用户请求的处理装置,该用户请求的处理装置包括:
请求获取模块,用于获取用户请求,并根据所述用户请求确定服务器序列;
请求判断模块,用于判断所述用户请求是否包括预设字段;
负载系数确定模块,用于若所述用户请求包括所述预设字段,则确定所述服务器序列的各个服务器的负载系数;
请求处理模块,用于根据所述各个服务器的负载系数确定各个服务器对应的所述用户请求的发送概率,以根据所述发送概率发送并处理所述用户请求。
第三方面,本发明实施例还提供了一种用户请求的处理设备,该设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明任意实施例提供的用户请求的处理方法。
第四方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行本发明任意实施例提供的用户请求的处理方法。
本发明实施例的技术方案,根据用户请求,确定所需要参与的服务器序列,并判断该用户请求中是否包括预设字段,若是,则计算服务器序列中各个服务器的负载系数,根据该负载系数确定各个服务器的该用户请求的发送概率,以一定的概率发送和处理该用户请求,实现了用户请求的自适应响应,且可以根据服务器负载进行用户请求的限流,保证了服务器的运行质量。
附图说明
图1是本发明实施例一中的一种用户请求的处理方法的流程图;
图2是本发明实施例二中的一种用户请求的处理方法的流程图;
图3是本发明实施例三中的一种用户请求的处理装置的示意图;
图4是本发明实施例四中的一种用户请求的处理设备的示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一提供的一种用户请求的处理方法的流程图,本实施例可适用于服务器对用户请求进行响应的情况,该方法可以由用户请求的处理装置来执行,该装置可以通过软件和/或硬件的方式实现,如图1所示,该方法具体包括如下步骤:
步骤110、获取用户请求,并根据所述用户请求确定服务器序列。
其中,用户请求指的是用户向服务器发送的请求,可以是通过客户端、浏览器或者其他平台向服务器发送请求。用户请求具体可以是访问服务器数据的请求。服务器序列指的是与用户请求相关的所有服务器的集合,具体的,服务器序列还可以是按照处理该用户请求的先后顺序进行排序的服务器序列。即服务器序列中的第一个服务器为响应用户请求的第一个服务器,第二个服务器则在第一个服务器之后进行响应,依次类推。服务器在其工作期间会持续接收到多个用户请求,当前用户请求即为该服务器正在处理、接收或响应的用户请求。
具体的,用户通过客户端发送用户请求,根据该用户请求确定需要参与该用户请求处理的服务器序列,其中,所述服务器序列中的各个服务器的顺序由处理该用户请求的顺序决定。
具体的,还可以为各种用户请求设置优先级,可以根据用户请求的类型以及用户的类型设置用户请求的优先级。
进一步地,本发明实施例所涉及的服务器可以是基于反射机制的服务器。
步骤120、判断所述用户请求是否包括预设字段。
其中,预设字段可以是自定义的字段,如service_time_array。可以通过协议预先对设定条件下用户发起的用户请求添加该预设字段。
具体的,包括预设字段的用户请求可以是用户存档请求、用户进入房间请求、用户下载资源请求等耗时较长或负载较大的用户请求。
具体的,可以基于识别算法或匹配算法判断用户请求中是否包括预设字段。
步骤130、若是,则确定所述服务器序列的各个服务器的负载系数。
其中,负载系数指的是当前服务器的负载量与其最大负载的比值,可以采用小数、分数或者百分比进行表示。
具体的,当用户请求中包括预设字段时,可以根据服务器序列的各个服务器历史负载系数确定当前时刻的负载系数。也可以实时获取服务器序列的各个服务器当前时刻的负载量及其最大负载,从而确定各个服务器的负载系数。
进一步地,可以基于神经网络算法根据当前服务器的历史负载系数确定当前时刻的负载系数。
另外,负载系数也可以用处理时间进行描述,处理时间也可以称为服务时间,处理时间即为当前服务器处理该用户请求所需的时间。可以根据当前服务器的历史用户请求的响应记录确定当前的用户请求的处理时间,即负载系数。
具体的,根据当前用户请求的内容可以计算出当前服务器响应当前用户请求的最小响应时间,可以根据当前服务器响应的上一条用户请求的最小响应时间及上一条用户请求的处理时间,确定当前用户请求的当前服务器的处理时间,即负载系数。
其中,最小响应时间指的是当前服务器在响应该用户请求的最小时间。通常指的是当前服务器处于空载或者负载量十分小的情况下的响应时间。可以根据经验以及服务器性能确定。进一步地,可以根据该服务器的最快处理速度以及用户请求的内容确定该服务器响应该用户请求的最小响应时间。
步骤140、根据所述各个服务器的负载系数确定各个服务器对应的所述用户请求的发送概率,以根据所述发送概率发送并处理所述用户请求。
其中,发送概率指的所用用户请求发送至下一服务器的概率,是位于0~1之间的值。若当前服务器为服务器序列的最后一个服务器,则无需计算发送概率。
具体的,可以根据预先建立的各个服务器的负载系数与发送概率的对应关系,确定各个服务器的所述用户请求的发送概率。
其中,预先建立的各个服务器的负载系数与发送概率的对应关系可以是用户自定义的,也可以是根据服务器性能确定的。对应关系应满足负载系数越大则发送概率应越小,即负载系数与发送概率成负相关关系。
具体的,相同型号或性能的服务器的对应关系可以相同。也可以是一个服务器编号对应一个独立的对应关系。
具体的,用户请求通常还包括请求优先级,可以是根据用户属性以及用户请求综合确定的请求优先级。
可选的,所述根据所述各个服务器的负载系数确定各个服务器对应的所述用户请求的发送概率,包括:
根据所述用户请求的请求优先等级及所述各个服务器负载系数确定各个服务器对应的所述用户请求的发送概率。
具体的,优先级越高的用户请求对应的发送概率也应该越大。用户请求的优先级别可以包括3、5或者8个级别,级别越高则表示该用户请求的优先级越高,相应的发送概率也应该越大。
可选的,所述服务器对应的用户请求的发送概率的表达式为:
Pi=min(1,(1-Li)*(1+P/N))
其中,Pi表示第i个服务器的用户请求的发送概率,i=2,3,…,n,n为所述服务器序列的服务器的总数;Li为第i个服务器的负载系数;P为用户请求的优先级;N用户请求的优先级的最高级别。
当然,也可以采用其他关系式描述用户请求的发送概率与请求优先级及负载系数之间的关系。本发明实施例的对发送概率的表达式不进行限定。
本发明实施例的技术方案,根据用户请求,确定所需要参与的服务器序列,并判断该用户请求中是否包括预设字段,若是,则计算服务器序列中各个服务器的负载系数,根据该负载系数确定各个服务器的该用户请求的发送概率,以一定的概率发送和处理该用户请求,实现了用户请求的自适应响应,且可以根据服务器负载进行用户请求的限流,保证了服务器的运行质量。
实施例二
图2为本发明实施例二提供的一种用户请求的处理方法的流程图,本实施例是对上一实施例的进一步细化和补充,本发明实施例所提供的用户请求的处理方法还包括:将所述用户请求达到当前服务器的到达时间和当前服务器发出所述用户请求的发出时间添加至所述用户请求;根据所述到达时间和发出时间更新当前服务器的历史负载系数。
如图2所示,该用户请求的处理方法包括如下步骤:
步骤210、获取用户请求,并根据所述用户请求确定服务器序列。
其中,所述用户请求包括请求优先级。
步骤220、判断所述用户请求是否包括预设字段。
步骤230、若是,则根据所述服务器序列中各个服务器的历史负载系数,分别确定各个所述服务器的负载系数。
其中,历史负载指的是服务器在当前时刻之前的负载系数。
具体的,可以根据当前服务器的历史负载系数确定负载系数曲线;根据该负载系数曲线确定当前时刻的该服务器的负载系数。
其中,负载系数曲线可以是根据该服务器的历史负载系数的分布规律确定的拟合曲线或直线。进而可以根据该负载系数曲线查找当前时刻对应的负载系数。
具体的,可以基于神经网络模型,根据所述服务器序列中各个服务器的历史负载系数,分别确定各个所述服务器的负载系数,如卷积神经网络模型(Convolutional NeuralNetworks,CNN)。
当然,也可以采用其他预测算法,根据服务器的历史负载系数,确定服务器的负载系数。
步骤240、根据所述用户请求的请求优先等级及所述各个服务器负载系数确定各个服务器对应的所述用户请求的发送概率。
步骤250、根据所述发送概率发送并处理所述用户请求。
具体的,以一定概率进行用户请求的发送和响应,实现了用户请求的限流。当服务器负载较大时,用户请求的发送概率也会变小,从而避免了网络拥堵。
步骤260、将所述用户请求达到当前服务器的到达时间和当前服务器发出所述用户请求的发出时间添加至所述用户请求。
当用户请求成功发送至当前服务器时,记录用户请求到达的时间,记为到达时间;当前服务器针对用户请求提供相应的服务或数据,并将用户请求发送至下一服务器或按照原来的路径返回,此时,记录下服务器将用户请求发出的时间,记为达到时间;并将到达时间和发出时间添加至用户请求中。
进一步地,可以根据用户请求中包含的各个服务器的到达时间和发出时间分析当前服务器的状态,同时,也可以起到监控整个服务器链路的质量的作用。当服务器集群响应速度很慢时,可以根据用户请求中所包含的各个服务器的到达时间和发出时间,确定瓶颈所在,即确定服务质量较差的服务器。
步骤270、根据所述到达时间和发出时间更新当前服务器的历史负载系数。
其中,服务器的负载系数与服务器处理用户请求所花费的时间成正比,即根据用户请求中记录的到达时间和发出时间可以得到服务器处理用户请求的时间,进而根据服务器的性能以及最大负载可以计算出服务器的负载系数,进而可以根据用户请求中记录的到达时间和发出时间更新当前服务器的历史负载系数。
当服务器序列中最后一个服务器完成该用户请求的响应后,便会生成该用户请求的回应请求,该回应请求则会按照用户请求的传输路径进行反向传输,以将服务器的回应发送至客户端,该回应请求所对应的服务器序列与用户请求所对应的服务器序列所包括的服务器相同,但服务器的顺序相反,即回应请求的第一个服务器为用户请求的最后一个服务器。回应请求的处理方法与用户请求的处理方法相同,仅需要将上述用户请求的处理方法中的用户请求替换为回应请求即可。
本发明实施例的技术方案,当用户请求中包含设定字段时,根据用户请求的优先级以及服务器的负载系数确定用户请求的发送概率,实现了用户请求的自适应响应,提高了发送概率的准确性和合理性;通过一定概率地发送和响应该用户请求,实现了根据服务器负载情况对用户请求进行限流,降低了服务器集群拥堵的几率;同时,在用户请求中记录其到达服务器的时间和服务器发出的时间,使得可以根据服务器序列各个服务器对应的到达时间和发出时间,监控服务器链路的质量,以便于发现服务器的瓶颈,及时进行维护或替换,提高了服务器集群的管理质量和效率。
实施例三
图3是本发明实施例三提供的一种用户请求的处理装置的示意图,如图3所示,该装置包括:请求获取模块310、请求判断模块320、负载系数确定模块330和请求处理模块340
其中,请求获取模块310,用于获取用户请求,并根据所述用户请求确定服务器序列;请求判断模块320,用于判断所述用户请求是否包括预设字段;负载系数确定模块330,用于若所述用户请求包括所述预设字段,则确定所述服务器序列的各个服务器的负载系数;请求处理模块340,用于根据所述各个服务器的负载系数确定各个服务器对应的所述用户请求的发送概率,以根据所述发送概率发送并处理所述用户请求。
本发明实施例的技术方案,根据用户请求,确定所需要参与的服务器序列,并判断该用户请求中是否包括预设字段,若是,则计算服务器序列中各个服务器的负载系数,根据该负载系数确定各个服务器的该用户请求的发送概率,以一定的概率发送和处理该用户请求,实现了用户请求的自适应响应,且可以根据服务器负载进行用户请求的限流,保证了服务器的运行质量。
可选的,所述用户请求包括请求优先级。
可选的,请求处理模块340,具体用于:
根据所述用户请求的请求优先等级及所述各个服务器负载系数确定各个服务器对应的所述用户请求的发送概率,以根据所述发送概率发送并处理所述用户请求。
可选的,服务器对应的用户请求的发送概率的表达式为:
Pi=min(1,(1-Li)*(1+P/N))
其中,Pi表示第i个服务器的用户请求的发送概率,i=2,3,…,n,n为所述服务器序列的服务器的总数;Li为第i个服务器的负载系数;P为用户请求的优先级;N用户请求的优先级的最高级别。
可选的,负载系数确定模块330,具体用于:
根据所述服务器序列中各个服务器的历史负载系数,分别确定各个所述服务器的负载系数。
可选的,该用户请求的处理装置,还包括:
时间添加模块,用于若所述用户请求包括预设字段,则将所述用户请求达到当前服务器的到达时间和当前服务器发出所述用户请求的发出时间添加至所述用户请求。
可选的,该用户请求的处理装置,还包括:
负载系数更新模块,用于根据所述到达时间和发出时间更新当前服务器的历史负载系数。
本发明实施例所提供的用户请求的处理装置可执行本发明任意实施例所提供的用户请求的处理方法,具备执行方法相应的功能模块和有益效果。
实施例四
图4为本发明实施例四提供的一种用户请求的处理设备的结构示意图,如图4所示,该设备包括处理器410、存储器420、输入装置430和输出装置440;设备处理器410的数量可以是一个或多个,图4中以一个处理器410为例;设备中的处理器410、存储器420、输入装置430和输出装置440可以通过总线或其他方式连接,图4中以通过总线连接为例。
存储器420作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的用户请求的处理方法对应的程序指令/模块(例如,用户请求的处理装置中的请求获取模块310、请求判断模块320负载系数确定模块330和请求处理模块340)。处理器410通过运行存储在存储器420中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的地用户请求的处理方法。
存储器420可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器420可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器420可进一步包括相对于处理器410远程设置的存储器,这些远程存储器可以通过网络连接至设备/终端/服务器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置430可用于接收输入的数字或字符信息,以及产生与设备的用户设置以及功能控制有关的键信号输入。输出装置440可包括显示屏等显示设备。
实施例五
发明实施例五还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种用户请求的处理方法,该方法包括:
获取用户请求,并根据所述用户请求确定服务器序列;
判断所述用户请求是否包括预设字段;
若是,则确定所述服务器序列的各个服务器的负载系数;
根据所述各个服务器的负载系数确定各个服务器对应的所述用户请求的发送概率,以根据所述发送概率发送并处理所述用户请求。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的用户请求的处理方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述用户请求的处理装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种用户请求的处理方法,其特征在于,包括:
获取用户请求,并根据所述用户请求确定服务器序列;
判断所述用户请求是否包括预设字段;
若是,则确定所述服务器序列的各个服务器的负载系数;
根据所述各个服务器的负载系数确定各个服务器对应的所述用户请求的发送概率,以根据所述发送概率发送并处理所述用户请求。
2.根据权利要求1所述的方法,其特征在于,所述用户请求包括请求优先级。
3.根据权利要求2所述的方法,其特征在于,所述根据所述各个服务器的负载系数确定各个服务器对应的所述用户请求的发送概率,包括:
根据所述用户请求的请求优先等级及所述各个服务器负载系数确定各个服务器对应的所述用户请求的发送概率。
4.根据权利要求3所述的方法,其特征在于,所述服务器对应的用户请求的发送概率的表达式为:
Pi=min(1,(1-Li)*(1+P/N))
其中,Pi表示第i个服务器的用户请求的发送概率,i=2,3,...,n,n为所述服务器序列的服务器的总数;Li为第i个服务器的负载系数;P为用户请求的优先级;N用户请求的优先级的最高级别。
5.根据权利要求1所述的方法,其特征在于,所述确定各个服务器的负载系数,包括:
根据所述服务器序列中各个服务器的历史负载系数,分别确定各个所述服务器的负载系数。
6.根据权利要求5所述的方法,其特征在于,判断所述用户请求是否包括预设字段之后,还包括:
若所述用户请求包括预设字段,则将所述用户请求达到当前服务器的到达时间和当前服务器发出所述用户请求的发出时间添加至所述用户请求。
7.根据权利要求6所述的方法,其特征在于,还包括:
根据所述到达时间和发出时间更新当前服务器的历史负载系数。
8.一种用户请求的处理装置,其特征在于,包括:
请求获取模块,用于获取用户请求,并根据所述用户请求确定服务器序列;
请求判断模块,用于判断所述用户请求是否包括预设字段;
负载系数确定模块,用于若所述用户请求包括所述预设字段,则确定所述服务器序列的各个服务器的负载系数;
请求处理模块,用于根据所述各个服务器的负载系数确定各个服务器对应的所述用户请求的发送概率,以根据所述发送概率发送并处理所述用户请求。
9.一种用户请求的处理设备,其特征在于,所述设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一项所述的用户请求的处理方法。
10.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7中任一项所述的用户请求的处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911316198.3A CN111049919B (zh) | 2019-12-19 | 2019-12-19 | 一种用户请求的处理方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911316198.3A CN111049919B (zh) | 2019-12-19 | 2019-12-19 | 一种用户请求的处理方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111049919A true CN111049919A (zh) | 2020-04-21 |
CN111049919B CN111049919B (zh) | 2022-09-06 |
Family
ID=70237334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911316198.3A Active CN111049919B (zh) | 2019-12-19 | 2019-12-19 | 一种用户请求的处理方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111049919B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020032777A1 (en) * | 2000-09-11 | 2002-03-14 | Yoko Kawata | Load sharing apparatus and a load estimation method |
CN1835453A (zh) * | 2005-03-16 | 2006-09-20 | 华为技术有限公司 | 一种实现分布式系统中负载分担的方法 |
CN104168332A (zh) * | 2014-09-01 | 2014-11-26 | 广东电网公司信息中心 | 高性能计算中负载均衡与节点状态监控方法 |
CN105007312A (zh) * | 2015-07-03 | 2015-10-28 | 叶秀兰 | 一种云计算服务器自适应负载均衡控制方法及控制系统 |
CN109040236A (zh) * | 2018-08-01 | 2018-12-18 | 平安科技(深圳)有限公司 | 一种服务器接入方法及网络系统 |
CN109165096A (zh) * | 2018-08-20 | 2019-01-08 | 四川长虹电器股份有限公司 | web集群的缓存利用系统及方法 |
CN109327540A (zh) * | 2018-11-16 | 2019-02-12 | 平安科技(深圳)有限公司 | 电子装置、服务器负载均衡方法及存储介质 |
CN110460541A (zh) * | 2019-07-30 | 2019-11-15 | 秒针信息技术有限公司 | 应用于web服务器的限流方法及装置 |
-
2019
- 2019-12-19 CN CN201911316198.3A patent/CN111049919B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020032777A1 (en) * | 2000-09-11 | 2002-03-14 | Yoko Kawata | Load sharing apparatus and a load estimation method |
CN1835453A (zh) * | 2005-03-16 | 2006-09-20 | 华为技术有限公司 | 一种实现分布式系统中负载分担的方法 |
CN104168332A (zh) * | 2014-09-01 | 2014-11-26 | 广东电网公司信息中心 | 高性能计算中负载均衡与节点状态监控方法 |
CN105007312A (zh) * | 2015-07-03 | 2015-10-28 | 叶秀兰 | 一种云计算服务器自适应负载均衡控制方法及控制系统 |
CN109040236A (zh) * | 2018-08-01 | 2018-12-18 | 平安科技(深圳)有限公司 | 一种服务器接入方法及网络系统 |
CN109165096A (zh) * | 2018-08-20 | 2019-01-08 | 四川长虹电器股份有限公司 | web集群的缓存利用系统及方法 |
CN109327540A (zh) * | 2018-11-16 | 2019-02-12 | 平安科技(深圳)有限公司 | 电子装置、服务器负载均衡方法及存储介质 |
CN110460541A (zh) * | 2019-07-30 | 2019-11-15 | 秒针信息技术有限公司 | 应用于web服务器的限流方法及装置 |
Non-Patent Citations (3)
Title |
---|
HAIYANG QIAN: "Balancing Request Denial Probability and Latency in an Agent-Based VPN Architecture", 《IEEE TRANSACTIONS ON NETWORK AND SERVICE MANAGEMENT 》 * |
刘松等: "一种基于服务类型的Web集群负载均衡算法", 《武汉理工大学学报》 * |
王春娟等: "Web集群系统的负载均衡算法", 《计算机工程》 * |
Also Published As
Publication number | Publication date |
---|---|
CN111049919B (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108776934B (zh) | 分布式数据计算方法、装置、计算机设备及可读存储介质 | |
US10048996B1 (en) | Predicting infrastructure failures in a data center for hosted service mitigation actions | |
CN108629029B (zh) | 一种应用于数据仓库的数据处理方法和装置 | |
CN107592345B (zh) | 交易限流装置、方法及交易系统 | |
CN111277511B (zh) | 传输速率控制方法、装置、计算机系统及可读存储介质 | |
EP1349065A2 (en) | Symmetrical multiprocessing in multiprocessor systems | |
CN111124819A (zh) | 全链路监控的方法和装置 | |
WO2023066084A1 (zh) | 算力分配方法、装置及算力服务器 | |
CN111782692B (zh) | 一种频率控制方法及装置 | |
CN112579304A (zh) | 基于分布式平台的资源调度方法、装置、设备及介质 | |
CN112506619B (zh) | 作业处理方法、装置、电子设备和存储介质 | |
US10642585B1 (en) | Enhancing API service schemes | |
CN113190417A (zh) | 微服务状态检测方法、模型的训练方法、设备及存储介质 | |
CN115470079A (zh) | 一种系统故障预警方法、装置及服务器 | |
CN111555987B (zh) | 限流配置方法、装置、设备及计算机存储介质 | |
CN111049919B (zh) | 一种用户请求的处理方法、装置、设备及存储介质 | |
CN112615795A (zh) | 流量控制方法、装置、电子设备、存储介质及产品 | |
CN114090268B (zh) | 容器管理方法及容器管理系统 | |
CN115567597A (zh) | 一种支付结算系统的报文请求转发方法及装置 | |
CN115774602A (zh) | 一种容器资源的分配方法、装置、设备及存储介质 | |
CN116185578A (zh) | 计算任务的调度方法和计算任务的执行方法 | |
CN114461626A (zh) | 一种电网终端设备的监控方法和系统 | |
CN115766696A (zh) | 一种文件上传方法、装置、电子设备及存储介质 | |
CN109508433B (zh) | 基于匹配算法性能调整的负载波动应对方法和系统 | |
CN108718285B (zh) | 云计算集群的流量控制方法、装置及服务器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |