CN111131402A - 一种配置共享缓存服务器组的方法、装置、设备及介质 - Google Patents
一种配置共享缓存服务器组的方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN111131402A CN111131402A CN201911234778.8A CN201911234778A CN111131402A CN 111131402 A CN111131402 A CN 111131402A CN 201911234778 A CN201911234778 A CN 201911234778A CN 111131402 A CN111131402 A CN 111131402A
- Authority
- CN
- China
- Prior art keywords
- cache server
- cache
- server
- access request
- shared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1008—Server selection for load balancing based on parameters of servers, e.g. available memory or workload
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
- H04L67/63—Routing a service request depending on the request content or context
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明提供了一种服务器数据缓存方法、装置和系统。涉及计算机网络领域;解决了多台缓存服务器拉取二级缓存或回源造成的带宽资源消耗过大、时间延迟的问题。该方法包括:在检测到符合预置的分流条件的统一资源定位符URL访问请求时,以太网设备为所述URL访问请求配置共享缓存服务器组,所述共享缓存服务器组包含一台第一缓存服务器和至少一台第二缓存服务器;所述以太网设备通知各台所述第二缓存服务器通过所述第一缓存服务器获取所述URL访问请求的缓存数据。本发明提供的技术方案适用于负载均衡系统,实现了快速高效、稳定可靠的访问热点负载均衡。
Description
本申请是2018年03月22日提交中国国家知识产权局专利局、申请号为201810238424.X、发明名称为“服务器数据缓存方法、装置和系统”的中国专利申请的分案申请。
技术领域
本发明涉及计算机网络领域,尤其涉及一种配置共享缓存服务器组的方法、装置、设备及介质。
背景技术
在缓存(Cache)服务器集群中通常使用Switch软件分散后端流量,当有流量过热集中在集群中的某台Switch服务器上时,通常会将请求均匀分摊打散到后端的缓存服务器上,此时没有缓存相应数据的缓存服务器会直接回二级缓存取数据或者回源,占用大量带宽,有可能将源站或者二级缓存拖垮。
常见服务集群架构如图1所示。以某次热点URL跑满网卡为例,现有技术主要注意点集中在将该热点URL打散分布到该组后端的所有缓存服务器上,打散后的架构如图2所示。
现有技术存在如下问题:
1、针对该URL之前该组缓存数据对于同组其他机器属于无效缓存。降低资源利用率。
2、当Cache服务器没缓存相应数据时,将回二级缓存或者源站拉取数据,造成带宽浪费。当打散分散后涉及的Cache服务器数量较大时极有可能跑满二级缓存或者源站的带宽,严重时将造成源站宕机,服务不可用。
3、面对突发的流量没有预先准备,临时打散调度存在时间延迟,打散生效需要至少15分钟以上,解决困境效果不佳。
4、打散后Cache服务器需重新回源取数据,此时面临跨网跨省网络缓慢,甚至链路中断等问题,影响客户体验。
发明内容
本发明旨在解决上面描述的问题。
根据本发明的第一方面,提供了一种服务器数据缓存方法,包括:
在检测到符合预置的分流条件的统一资源定位符URL访问请求时,以太网设备为所述URL访问请求配置共享缓存服务器组,所述共享缓存服务器组包含一台第一缓存服务器和至少一台第二缓存服务器;
所述以太网设备通知各台所述第二缓存服务器通过所述第一缓存服务器获取所述URL访问请求的缓存数据。
优选的,该方法还包括:
所述以太网设备检测后端的缓存服务器的工作情况,与其他以太网设备同步对所述缓存服务器的工作情况的探测结果。
优选的,所述以太网设备为所述URL访问请求配置共享缓存服务器组的步骤包括:
配置本机对应的缓存服务器为所述第一缓存服务器;
根据预置的共享缓存算法,确定其他分配到所述URL访问请求的以太网设备;
配置所述其他分配到所述URL访问请求的以太网设备对应的且工作情况为正常的缓存服务器为所述第二缓存服务器。
优选的,所述以太网设备通知各台所述第二缓存服务器通过所述第一缓存服务器获取所述URL访问请求的缓存数据的步骤包括:
所述以太网设备将所述第一缓存服务器的IP地址发送至各个所述第二缓存服务器。
根据本发明的另一方面,还提供了一种服务器数据缓存方法,包括:
缓存服务器在接收到URL访问请求时,检查所述URL的共享缓存服务器组配置;
在本机被配置为第二缓存服务器时,所述缓存服务器向所述共享缓存服务器组中的第一缓存服务器获取所述URL访问请求的缓存数据。
优选的,缓存服务器在接收到URL访问请求时,检查所述URL的共享缓存服务器组配置的步骤之后,还包括:
在本机未被配置入所述URL的共享缓存服务器组时,向二级缓存或源数据站进行回源操作,获取缓存数据。
优选的,该方法还包括:
接收以太网设备发送的通知,所述通知包含对所述共享缓存服务器组的配置。
根据本发明的另一方面,还提供了一种服务器数据缓存装置,包括:
共享缓存配置模块,用于在检测到符合预置的分流条件的URL访问请求时,为所述URL访问请求配置共享缓存服务器组,所述共享缓存服务器组包含一台第一缓存服务器和至少一台第二缓存服务器;
配置下发模块,用于通知各台所述第二缓存服务器通过所述第一缓存服务器获取所述URL访问请求的缓存数据。
优选的,该装置还包括:
资源探测模块,用于缓存检测后端的缓存服务器的工作情况;
资源信息同步模块,用于与其他以太网设备同步对所述缓存服务器的工作情况的探测结果。
根据本发明的另一方面,还提供了一种服务器数据缓存装置,包括:
共享配置确定模块,用于在接收到URL访问请求时,检查所述URL的共享缓存服务器组配置;
缓存数据获取模块,用于在本机被配置为第二缓存服务器时,向所述共享缓存服务器组中的第一缓存服务器获取所述URL访问请求的缓存数据。
优选的,所述缓存数据获取模块,还用于在本机未被配置入所述URL的共享缓存服务器组时,向二级缓存或源数据站进行回源操作,获取缓存数据。
根据本发明的另一方面,还提供了一种服务器数据缓存系统,包括至少一台以太网设备及各以太网设备对应的缓存服务器;
所述以太网设备,用于在检测到符合预置的分流条件的URL访问请求时,为所述URL访问请求配置所述共享缓存服务器组,所述共享缓存服务器组包含一台第一缓存服务器和至少一台第二缓存服务器,
通知各台所述第二缓存服务器通过所述第一缓存服务器获取所述URL访问请求的缓存数据;
所述缓存服务器,用于在接收到URL访问请求时,检查所述URL的共享缓存服务器组配置,并在本机被配置为第二缓存服务器时,向所述共享缓存服务器组中的第一缓存服务器获取所述URL访问请求的缓存数据。
本发明提供了一种服务器数据缓存方法、装置和系统,在检测到符合预置的分流条件的URL访问请求时,以太网设备为所述URL访问请求配置共享缓存服务器组,所述共享缓存服务器组包含一台第一缓存服务器和至少一台第二缓存服务器,所述以太网设备通知各台所述第二缓存服务器通过所述第一缓存服务器获取所述URL访问请求的缓存数据,形成了只需要回二级缓存或回源拉取一次缓存数据,在多台分流的缓存服务器间共享缓存数据的网络架构。解决了多台缓存服务器拉取二级缓存或回源造成的带宽资源消耗过大、时间延迟的问题,实现了快速高效、稳定可靠的访问热点负载均衡,合理利用组内缓存的优势,同组机器基本在同一交换机网络下,不跨网,速度更快不占用节点出口带宽。
参照附图来阅读对于示例性实施例的以下描述,本发明的其他特性特征和优点将变得清晰。
附图说明
并入到说明书中并且构成说明书的一部分的附图示出了本发明的实施例,并且与描述一起用于解释本发明的原理。在这些附图中,类似的附图标记用于表示类似的要素。下面描述中的附图是本发明的一些实施例,而不是全部实施例。对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他的附图。
图1示例性地示出了现有的服务器集群架构;
图2示例性地示出了现有的打散分布缓存的系统架构;
图3示例性地示出了本发明的实施例一提供的一种服务器数据缓存方法的流程;
图4示例性地示出了本发明的实施例二提供的一种服务器数据缓存系统的架构;
图5示例性地示出了本发明的实施例三提供的一种服务器数据缓存装置的结构;
图6示例性地示出了本发明的实施例三提供的又一种服务器数据缓存装置的结构;
图7示例性地示出本发明的实施例三提供的一种服务器数据缓存系统的架构。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。
现有技术存在如下问题:
1、针对该URL之前该组缓存数据对于同组其他机器属于无效缓存。降低资源利用率。
2、当Cache服务器没缓存相应数据时,将回二级缓存或者源站拉取数据,造成带宽浪费。当打散分散后涉及的Cache服务器数量较大时极有可能跑满二级缓存或者源站的带宽,严重时将造成源站宕机,服务不可用。
3、面对突发的流量没有预先准备,等到热点URL发生时再进行打散的配置处理,时间延迟且效率底下,而且配置操作繁琐,解决困境效果不佳。
4、打散后cache服务器需重新回源取数据,此时面临跨网跨省网络缓慢,甚至链路中断等问题,影响客户体验。
为了解决上述问题,本发明的实施例提供了一种服务器数据缓存方法、装置和系统。为热点URL访问请求配置一组共享缓存服务器,利用已经缓存了数据的第一缓存服务器作为缓存数据的数据源,其他共享缓存服务器组中的第二缓存服务器向该第一缓存服务器请求其缓存的数据,对第一缓存服务器缓存的数据进行了最大程度的利用,有效的解决了多台缓存服务器拉取二级缓存或回源造成的带宽资源消耗过大、时间延迟的问题,实现了快速高效、稳定可靠的访问热点负载均衡。
首先结合附图,对本发明的实施例一进行说明。
本发明实施例提供了一种服务器数据缓存方法,使用该方法对热点URL的流量进行打散缓存处理的流程如图3所示,包括:
步骤301、以太网设备检测后端的缓存服务器的工作情况,与其他以太网设备同步对所述缓存服务器的工作情况的探测结果;
本发明实施中,所述以太网设备具体为Switch服务器,缓存服务器具体可为Cache服务器或具有缓存功能的tengine服务器、squid服务器等其他服务器。本步骤中以Cache服务器为例进行说明,具体如下:
1、Switch服务器判断该URL访问请求是否配置本机hash和共享缓存配置(表明该URL访问请求是否支持共享缓存服务器组)。如果没有则以默认模式继续工作。如果存在共享缓存配置,则进入下一步。
2、各台Switch服务器的内部维护一个后端Cache服务器的探活池,其中包含可用的全部Cache服务器。每个探测周期探测一次各个Cache服务器的工作情况(如:服务端口是否正常),将探测结果为不正常的Cache服务器从该探活池库中剔除,并同步到其他Switch服务器。
Switch定义分发后端为本组hash或者本机hash方式,且计算公式存放在proxy模块之后,不能够完成自定义功能。因为共享缓存服务器组内缓存必须计算出本组中存在缓存的那台机器IP,于是需要将该算法抽出,同时还要匹配后端探活功能同时同步一个组内链接表,保证组内其他Switch做URL本机hash时不会出现问题,避免将URL访问请求hash到已经宕机的Cache服务器上或者流量跑满的Cache服务器上。
需要说明的是,本步骤与后续各步骤并无严格时序关系,对后端Cache服务器的探测可持续进行,随时同步更新。
步骤302、在检测到符合预置的分流条件的URL访问请求时,以太网设备为所述URL访问请求配置共享缓存服务器组;
本发明实施例中,所述共享缓存服务器组包含一台第一缓存服务器和至少一台第二缓存服务器。所述第一缓存服务器与所述第二缓存服务器均为相同的缓存服务器,只是在配置到同一共享缓存服务器组中时,第一缓存服务器作为指定缓存服务器,可进行回源或拉取二级缓存的操作以获得缓存数据,第二缓存服务器则自该第一缓存服务器获取缓存数据。同一缓存服务器在不同URL访问请求的共享缓存服务器组的配置中可能作为第一缓存服务器,也可能作为第二缓存服务器。本发明的实施例还提供了一种服务器数据缓存系统,架构如图4所示,Switch服务器分发URL访问请求,共享缓存服务器组共享缓存数据,LVS负载均衡系统作为前端负载均衡系统,能在一定情况下将请求均匀的发布到Switch服务器上。多台Switch服务器构成Switch分发请求系统,计算出后端共享Cache服务器组中存在第一缓存服务器,将该第一缓存服务器的IP地址发送给其他第二缓存服务器,是组内共享缓存配置部分。共享Cache服务器组内的第二缓存服务器根据Switch服务器发送的信息,向同组第一缓存服务器取回数据。二级缓存作为缓存缓冲系统,减轻回源压力。将热点URL访问请求打散后,采用分布式结构,配置热点URL为组内共用缓存模式,直接提高每台Cache服务器的承载能力,在发生热点URL之前解决问题。
本步骤具体包括:
1、配置本机对应的缓存服务器为所述第一缓存服务器;
2、根据预置的共享缓存算法,确定其他分配到所述URL访问请求的以太网设备;
3、配置所述其他分配到所述URL访问请求的以太网设备对应的且工作情况为正常的缓存服务器为所述第二缓存服务器。
符合分流条件的URL访问请求也可称为热点URL,是通过业务确认的。可以是客户告知,例如今天要做活动某个页面的请求会非常大。或者该URL请求数非常大,将服务器进程、CPU资源等耗尽,也认为是热点URL。
步骤303、所述以太网设备通知各台所述第二缓存服务器通过所述第一缓存服务器获取所述URL访问请求的缓存数据。
所述以太网设备将所述第一缓存服务器的IP地址发送至各个所述第二缓存服务器。
仍以图4所示架构为例进行说明,Switch服务器调用一致性hash模块计算出之前存在缓存数据的那台第一缓存服务器的IP地址,并设置一个头部share_loop:IP通过各Switch服务器给各台Cache服务器。将之前算法提取出来,然后将同步的地址池作为输入数据,计算出一个第一缓存服务器的IP,将该IP通知给各Cache服务器,这样能保证同一共享缓存服务器组中的第二缓存服务器全部到第一缓存服务器取数据。
步骤304、缓存服务器接收以太网设备发送的通知;
本步骤中,所述通知包含对所述共享缓存服务器组的配置。根据该配置,能够确定本缓存服务器的身份为第一缓存服务器或第二缓存服务器。进一步的,该通知为一个头部share_loop:IP,携带有第一缓存服务器的IP地址。
缓存服务器将通知指示的IP保存起来。例如,可通过定义dynamic_catch模块将头部中的IP信息取出来,并存在变量CacheIP中。
步骤305、缓存服务器在接收到URL访问请求时,检查所述URL的共享缓存服务器组配置;
本步骤中,在接收到URL访问请求时,逻辑判断该条URL的数据是否已经存在本机缓存,如果有直接返回数据数据。若本机不存在与该URL关联的缓存数据,在本机被配置为第二缓存服务器时,所述缓存服务器向所述共享缓存服务器组中的第一缓存服务器获取所述URL访问请求的缓存数据。具体的,在本机中保存有第一缓存服务器的IP地址且本机非第一缓存服务器时,进入步骤306,向该IP地址请求缓存数据。在本机中没有共享缓存服务器组配置或本机即为第一缓存服务器时,进入步骤307拉取数据。
仍以步骤304中的举例为例进行说明,Cache服务器的动态填充Cache_src功能模块获取CacheIP变量值,通过Cache之间的探活功能确认该IP服务正常,否则直接回上级节点取得缓存。
步骤306、在本机被配置为第二缓存服务器时,所述缓存服务器向所述共享缓存服务器组中的第一缓存服务器获取所述URL访问请求的缓存数据。
仍以步骤304中的举例为例进行说明,本步骤中,缓存服务器的Cache_request模块向CacheIP中存放的IP地址发起类似回源请求,取回数据同时不传递share_loop头,避免引起死循环。
步骤307、在本机未被配置入所述URL的共享缓存服务器组时,向二级缓存或源数据站进行回源操作,获取缓存数据。
下面结合附图,对本发明的实施例二进行说明。
本发明提供了一种服务器数据缓存系统,其架构如图4所示,该系统在预知热点URL存在情况下或者临时突发热点的URL情况下,需修改URL加上组内共享缓存配置和本机hash设置,为该URL配置共享服务器组。
S1:热点URL通过LVS前端负载均衡在一定程度上平均分布到Switch服务器上。假设落在B服务器上。
S2:此时Switch检测该URL配置了本机hash算法和组内共享缓存,于是在系统中计算出两个值(本机hash值,确定将请求发送到D。同时计算出本组hash值即存在有缓存的一台服务器假设是A)。
S3:此时Switch系统将请求直接传递给E Cache服务器,同时带上一个share-loop:D_IP的头部值(share_loop表示告诉Cache启用组内共享缓存功能,D_IP为计算出来存在缓存的D服务器)。
S4:B Cache服务器首先内部判断是否存在该URL的缓存,如果有直接返回数据。如果没有,则取出share_loop中的D_IP,并同步向D Cache服务器请求数据。
S5:B Cache在内网中快速获取数据,并缓存一份,直接解决需要回二级缓存或者源站取数据的问题。
下面结合附图,对本发明的实施例三进行说明。
本发明实施例提供了一种服务器数据缓存装置,其结构如图5所示,包括:
共享缓存配置模块501,用于在检测到符合预置的分流条件的URL访问请求时,为所述URL访问请求配置共享缓存服务器组,所述共享缓存服务器组包含一台第一缓存服务器和至少一台第二缓存服务器;
配置下发模块502,用于通知各台所述第二缓存服务器通过所述第一缓存服务器获取所述URL访问请求的缓存数据。
优选的,该装置还包括:
资源探测模块503,用于缓存检测后端的缓存服务器的工作情况。
优选的,该装置还包括:
资源信息同步模块504,用于与其他以太网设备同步对所述缓存服务器的工作情况的探测结果。
图5所示的服务器数据缓存装置,可集成于以太网设备中,由以太网设备实现相应功能。
一种服务器数据缓存装置,其结构如图6所示,包括:
共享配置确定模块601,用于在接收到URL访问请求时,检查所述URL的共享缓存服务器组配置;
缓存数据获取模块602,用于在本机被配置为第二缓存服务器时,向所述共享缓存服务器组中的第一缓存服务器获取所述URL访问请求的缓存数据。
优选的,所述缓存数据获取模块602,还用于在本机未被配置入所述URL的共享缓存服务器组时,向二级缓存或源数据站进行回源操作,获取缓存数据。
如图6所示的服务器数据缓存装置,可集成于缓存服务器上,由缓存服务器实现相应功能。
本发明实施例还提供了一种服务器数据缓存系统,其架构如图7所示,包括至少一台以太网设备及各以太网设备对应的缓存服务器;
所述以太网设备,用于在检测到符合预置的分流条件的URL访问请求时,为所述URL访问请求配置所述共享缓存服务器组,所述共享缓存服务器组包含一台第一缓存服务器和至少一台第二缓存服务器,
通知各台所述第二缓存服务器通过所述第一缓存服务器获取所述URL访问请求的缓存数据;
所述缓存服务器,用于在接收到URL访问请求时,检查所述URL的共享缓存服务器组配置,并在本机被配置为第二缓存服务器时,向所述共享缓存服务器组中的第一缓存服务器获取所述URL访问请求的缓存数据。
本发明的实施例提供了一种服务器数据缓存方法、装置和系统,在检测到符合预置的分流条件的URL访问请求时,以太网设备为所述URL访问请求配置共享缓存服务器组,所述共享缓存服务器组包含一台第一缓存服务器和至少一台第二缓存服务器,所述以太网设备通知各台所述第二缓存服务器通过所述第一缓存服务器获取所述URL访问请求的缓存数据,形成了只需要回二级缓存或回源拉取一次缓存数据,在多台分流的缓存服务器间共享缓存数据的网络架构。解决了多台缓存服务器拉取二级缓存或回源造成的带宽资源消耗过大、时间延迟的问题,实现了快速高效、稳定可靠的访问热点负载均衡,合理利用组内缓存的优势,同组机器基本在同一交换机网络下,不跨网,速度更快不占用节点出口带宽。
上面描述的内容可以单独地或者以各种方式组合起来实施,而这些变型方式都在本发明的保护范围之内。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种配置共享缓存服务器组的方法,其特征在于,所述方法包括:
以太网设备在检测到符合预置的分流条件的URL访问请求时,配置本机对应的缓存服务器为第一缓存服务器;
根据预置的共享缓存算法,确定其他分配到所述URL访问请求的以太网设备;
配置所述其他分配到所述URL访问请求的以太网设备对应的且工作情况为正常的缓存服务器为第二缓存服务器,共享缓存服务器组包含一台所述第一缓存服务器和至少一台所述第二缓存服务器。
2.根据权利要求1所述的方法,其特征在于,所述第一缓存服务器与所述第二缓存服务器均为相同的缓存服务器。
3.根据权利要求1所述的方法,其特征在于,所述以太网设备发送包含对所述共享缓存服务器组的配置的通知。
4.根据权利要求1所述的方法,其特征在于,还包括:
所述以太网设备将所述第一缓存服务器的IP地址发送至各个所述第二缓存服务器。
5.一种配置共享缓存服务器组的装置,适用于以太网设备,其特征在于,包括:
共享缓存配置模块,用于在检测到符合预置的分流条件的URL访问请求时,配置本机对应的缓存服务器为第一缓存服务器;根据预置的共享缓存算法,确定其他分配到所述URL访问请求的以太网设备;配置所述其他分配到所述URL访问请求的以太网设备对应的且工作情况为正常的缓存服务器为第二缓存服务器,共享缓存服务器组包含一台所述第一缓存服务器和至少一台所述第二缓存服务器。
6.根据权利要求5所述的装置,其特征在于,该装置还包括:
配置下发模块,用于发送包含对所述共享缓存服务器组的配置的通知。
7.根据权利要求6所述的装置,其特征在于,配置下发模块,还用于将所述第一缓存服务器的IP地址发送至各个所述第二缓存服务器。
8.一种计算机设备,其特征在于,所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1至4中任一项所述方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911234778.8A CN111131402B (zh) | 2018-03-22 | 2018-03-22 | 一种配置共享缓存服务器组的方法、装置、设备及介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810238424.XA CN110300132A (zh) | 2018-03-22 | 2018-03-22 | 服务器数据缓存方法、装置和系统 |
CN201911234778.8A CN111131402B (zh) | 2018-03-22 | 2018-03-22 | 一种配置共享缓存服务器组的方法、装置、设备及介质 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810238424.XA Division CN110300132A (zh) | 2018-03-22 | 2018-03-22 | 服务器数据缓存方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111131402A true CN111131402A (zh) | 2020-05-08 |
CN111131402B CN111131402B (zh) | 2022-06-03 |
Family
ID=68025663
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911234778.8A Active CN111131402B (zh) | 2018-03-22 | 2018-03-22 | 一种配置共享缓存服务器组的方法、装置、设备及介质 |
CN201810238424.XA Pending CN110300132A (zh) | 2018-03-22 | 2018-03-22 | 服务器数据缓存方法、装置和系统 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810238424.XA Pending CN110300132A (zh) | 2018-03-22 | 2018-03-22 | 服务器数据缓存方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN111131402B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5864854A (en) * | 1996-01-05 | 1999-01-26 | Lsi Logic Corporation | System and method for maintaining a shared cache look-up table |
US20040010562A1 (en) * | 2002-06-26 | 2004-01-15 | Wataru Itonaga | Shared cache server |
US20110219208A1 (en) * | 2010-01-08 | 2011-09-08 | International Business Machines Corporation | Multi-petascale highly efficient parallel supercomputer |
US20110238828A1 (en) * | 2008-07-23 | 2011-09-29 | International Business Machines Corporation | Redirecting web content |
CN104580393A (zh) * | 2014-12-18 | 2015-04-29 | 北京蓝汛通信技术有限责任公司 | 用于服务器集群系统的扩容方法、装置及服务器集群系统 |
CN104935648A (zh) * | 2015-06-03 | 2015-09-23 | 北京快网科技有限公司 | 一种高性价比的cdn系统及文件预推、分片缓存的方法 |
CN106547518A (zh) * | 2012-12-28 | 2017-03-29 | 英特尔公司 | 用于加速器的低等待时间调用的装置和方法 |
CN107517241A (zh) * | 2016-06-16 | 2017-12-26 | 中兴通讯股份有限公司 | 请求调度方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2263159B1 (en) * | 2008-04-09 | 2016-05-25 | Level 3 Communications, LLC | Rule-based content request handling |
CN101764824B (zh) * | 2010-01-28 | 2012-08-22 | 深圳市龙视传媒有限公司 | 一种分布式缓存控制方法、装置及系统 |
EP2569916B1 (en) * | 2010-05-09 | 2016-01-20 | Citrix Systems Inc. | Systems and methods for allocation of classes of service to network connections corresponding to virtual channels |
CN104301741B (zh) * | 2014-09-26 | 2018-06-22 | 北京奇艺世纪科技有限公司 | 一种数据直播系统和方法 |
CN104320487B (zh) * | 2014-11-11 | 2018-03-20 | 网宿科技股份有限公司 | 内容分发网络的http调度系统和方法 |
CN104935680B (zh) * | 2015-06-18 | 2018-11-06 | 中国互联网络信息中心 | 一种多层级共享缓存的递归域名服务系统和方法 |
CN107801086B (zh) * | 2017-10-20 | 2019-01-04 | 广东省南方数字电视无线传播有限公司 | 多缓存服务器的调度方法和系统 |
-
2018
- 2018-03-22 CN CN201911234778.8A patent/CN111131402B/zh active Active
- 2018-03-22 CN CN201810238424.XA patent/CN110300132A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5864854A (en) * | 1996-01-05 | 1999-01-26 | Lsi Logic Corporation | System and method for maintaining a shared cache look-up table |
US20040010562A1 (en) * | 2002-06-26 | 2004-01-15 | Wataru Itonaga | Shared cache server |
US20110238828A1 (en) * | 2008-07-23 | 2011-09-29 | International Business Machines Corporation | Redirecting web content |
US20110219208A1 (en) * | 2010-01-08 | 2011-09-08 | International Business Machines Corporation | Multi-petascale highly efficient parallel supercomputer |
CN106547518A (zh) * | 2012-12-28 | 2017-03-29 | 英特尔公司 | 用于加速器的低等待时间调用的装置和方法 |
CN104580393A (zh) * | 2014-12-18 | 2015-04-29 | 北京蓝汛通信技术有限责任公司 | 用于服务器集群系统的扩容方法、装置及服务器集群系统 |
CN104935648A (zh) * | 2015-06-03 | 2015-09-23 | 北京快网科技有限公司 | 一种高性价比的cdn系统及文件预推、分片缓存的方法 |
CN107517241A (zh) * | 2016-06-16 | 2017-12-26 | 中兴通讯股份有限公司 | 请求调度方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110300132A (zh) | 2019-10-01 |
CN111131402B (zh) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6374289B2 (en) | Distributed client-based data caching system | |
US10819819B2 (en) | Data storage based on content popularity | |
US11172023B2 (en) | Data synchronization method and system | |
CN111615066B (zh) | 一种基于广播的分布式微服务注册及调用方法 | |
CN103207841B (zh) | 基于键值对缓存的数据读写方法及装置 | |
CN108418900B (zh) | 一种服务器集群系统中的缓存方法、写入点客户端和读客户端 | |
CN109660607A (zh) | 一种业务请求分发方法、接收方法、装置及服务器集群 | |
CN112468310B (zh) | 流媒体集群节点管理方法、装置及存储介质 | |
CN102447624A (zh) | 在服务器集群上实现负载均衡的方法、节点服务器及集群 | |
CN105528366B (zh) | 一种数据同步控制方法和装置 | |
CN103731482A (zh) | 一种集群负载均衡系统及其实现方法 | |
CN112583895B (zh) | Tcp通信方法、系统及装置 | |
WO2017185615A1 (zh) | 一种业务处理设备的业务状态确定方法及调度设备 | |
CN106850255A (zh) | 一种多机备份的实现方法 | |
CN105978936A (zh) | Cdn服务器及其缓存数据的方法 | |
CN112104752A (zh) | 一种内容分发网络缓存节点的热点均衡方法及系统 | |
CN103036949A (zh) | 一种虚拟化环境下Cassandra系统的优化方法和系统 | |
CN111131402B (zh) | 一种配置共享缓存服务器组的方法、装置、设备及介质 | |
CN112543150B (zh) | 基于服务端控制的动态负载均衡方法 | |
CN115705198A (zh) | 运行容器组的节点,容器组的管理系统和方法 | |
CN116347467B (zh) | 5g网络中udr进行用户数据管理方法及系统 | |
CN112540966A (zh) | 一种文件同步的方法及装置 | |
CN112328693A (zh) | 区块同步方法、设备和存储介质 | |
CN115023929A (zh) | 数据同步方法、装置、系统、电子设备及存储介质 | |
CN109510864B (zh) | 一种缓存请求的转发方法、传输方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |