CN109327523A - 一种抗并发的数据处理方法、系统、装置及存储介质 - Google Patents
一种抗并发的数据处理方法、系统、装置及存储介质 Download PDFInfo
- Publication number
- CN109327523A CN109327523A CN201811249015.6A CN201811249015A CN109327523A CN 109327523 A CN109327523 A CN 109327523A CN 201811249015 A CN201811249015 A CN 201811249015A CN 109327523 A CN109327523 A CN 109327523A
- Authority
- CN
- China
- Prior art keywords
- server
- nginx
- user
- ring
- nginx server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
- H04L67/63—Routing a service request depending on the request content or context
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1023—Server selection for load balancing based on a hash applied to IP addresses or costs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1031—Controlling of the operation of servers by a load balancer, e.g. adding or removing servers that serve requests
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明公开了一种抗并发的数据处理方法、系统、装置及存储介质,该方法包括:当接收到第一用户数据请求时,解析获得第一用户数据请求中的第一用户ID;采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器;将第一用户数据请求发送到计算获得的Nginx服务器,使得该Nginx服务器将第一用户数据请求发送到其连接的Redis数据库进行处理;其中,所述服务器环包括有多个Nginx服务器,各所述Nginx服务器均分别唯一连接有一Redis数据库,且每个Nginx服务器及其连接的Redis数据库构成一web服务器。本发明可避免并发数据访问导致的卡顿或者崩溃的问题,可有效地对并发数据进行处理,且处理效率高,可广泛应用于互联网行业中。
Description
技术领域
本发明涉及数据处理领域,特别是涉及一种抗并发的数据处理方法、系统、装置及存储介质。
背景技术
网络服务端的业务处理服务器在高峰繁忙时期会收到大量的数据访问请求,需要向web服务器读写大量的数据。现有的技术中,通常是一台web服务器连接一台Nginx服务器,然后多台web-Nginx服务器连接到同一个Redis数据库进行数据读写。这种架构的瓶颈在于Redis数据库的性能,当并发过大时,可能会导致Redis数据库的访问出现卡顿甚至崩溃的问题。
名词解释
web:全称World Wide Web,即全球广域网,也称为万维网,它是一种基于超文本和HTTP的、全球性的、动态交互的、跨平台的分布式图形信息系统。是建立在Internet上的一种网络服务,为浏览者在Internet上查找和浏览信息提供了图形化的、易于访问的直观界面,其中的文档及超级链接将Internet上的信息节点组织成一个互为关联的网状结构。
Nginx:一款轻量级的Web服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,并在一个BSD-like协议下发行,其特点是占有内存少,并发能力强。
Redis:是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型数据库,并提供多种语言的数据接口。
MongoDB:一个基于分布式文件存储的数据库。
ketama:一种计算哈希值的算法。
发明内容
为了解决上述的技术问题,本发明的目的是提供一种处理效率高的抗并发的数据处理方法、系统、装置及存储介质。
一方面,本发明实施例提供了一种抗并发的数据处理方法,包括以下步骤:
当接收到第一用户数据请求时,解析获得第一用户数据请求中的第一用户ID;
采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器;
将第一用户数据请求发送到计算获得的Nginx服务器,使得该Nginx服务器将第一用户数据请求发送到其连接的Redis数据库进行处理;
其中,所述服务器环包括有多个Nginx服务器,各所述Nginx服务器均分别唯一连接有一Redis数据库,且每个Nginx服务器及其连接的Redis数据库构成一web服务器。
进一步,所述服务器环通过以下方式生成:
分别根据每个Nginx服务器的IP,通过一致性哈希算法计算每个Nginx服务器的第一哈希值后,根据计算的第一哈希值将多个Nginx服务器连接成一个服务器环。
进一步,所述采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器这一步骤,其具体为:
采用哈希算法计算第一用户ID对应的第二哈希值后,根据预设的映射规则,在服务器环中查找获得第二哈希值对应的Nginx服务器。
进一步,还包括以下步骤:
当检测到服务器环的负载过高时,将新接收到的第二用户数据请求缓存至MongoDB中,并为服务器环新增一Nginx服务器;其中,该新增的Nginx服务器唯一连接有一Redis数据库;
解析获得第二用户数据请求中的第二用户ID,并将第二用户ID与新增的Nginx服务器建立映射关系,以使得新增的Nginx服务器从MongoDB读取第二用户数据请求,并发送到其连接的Redis数据库进行处理。
进一步,所述服务器环的负载过高是指接收到的总的用户数据请求超过服务器环的数据处理能力。
进一步,所述为服务器环新增一Nginx服务器的步骤,具体为:
发出请求新增Nginx服务器的连接请求,并在该连接请求被同意后,接收对该连接请求的响应数据;
对接收的响应数据进行解析,获得其中的Nginx服务器的IP,进而根据该Nginx服务器的IP,通过一致性哈希算法计算该Nginx服务器的第一哈希值;
根据该Nginx服务器的第一哈希值,将该Nginx服务器加入到服务器环中。
进一步,所述采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器这一步骤中,还包括以下步骤:
将第一用户ID与服务器环中对应的Nginx服务器建立映射关系,以使得该第一用户ID发送的所有数据请求均由其在服务器环中对应的Nginx服务器处理。
另一方面,本发明实施例提供了一种抗并发的数据处理系统,包括业务服务器和多个web服务器,各所述web服务器均分别包括一Nginx服务器,所述业务服务器分别与各Nginx服务器连接,各所述Nginx服务器唯一连接有一Redis数据库,多个Nginx服务器构成一服务器环;
所述业务服务器用于:
当接收到第一用户数据请求时,解析获得第一用户数据请求中的第一用户ID;
采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器;
将第一用户数据请求发送到计算获得的Nginx服务器,使得该Nginx服务器将第一用户数据请求发送到其连接的Redis数据库进行处理。
另一方面,本发明实施例还提供了一种抗并发的数据处理装置,包括:
解析模块,用于当接收到第一用户数据请求时,解析获得第一用户数据请求中的第一用户ID;
计算模块,用于采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器;
处理模块,用于将第一用户数据请求发送到计算获得的Nginx服务器,使得该Nginx服务器将第一用户数据请求发送到其连接的Redis数据库进行处理;
其中,所述服务器环包括有多个Nginx服务器,各所述Nginx服务器均分别唯一连接有一Redis数据库,且每个Nginx服务器及其连接的Redis数据库构成一web服务器。
另一方面,本发明实施例还提供了一种存储介质,其存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于执行所述的一种抗并发的数据处理方法。
本发明实施例所构建的服务器环包括多个Nginx服务器,且每个Nginx服务器分别唯一连接有一Redis数据库,在接收到用户数据请求时,解析获得用户数据请求中的用户ID,从而采用哈希算法计算该用户ID在服务器环中对应的Nginx服务器后,将用户数据请求发送到计算获得的Nginx服务器连接的Redis数据库进行处理,从而在接收到大量用户数据请求的并发请求时,本实施例只要计算获得各用户数据请求对应的Nginx服务器,从而将大量用户数据请求分发到对应的Nginx服务器连接的Redis数据库进行处理,可以避免并发数据访问导致的卡顿或者崩溃的问题,可以有效地对并发数据进行处理,且处理效率高。
附图说明
下面结合附图和实施例对本发明作进一步说明。
图1是本发明具体实施例的一种抗并发的数据处理方法的流程图;
图2是本发明具体实施例的一种抗并发的数据处理系统的电子框图;
图3是本发明具体实施例的一种抗并发的数据处理装置的电子框图。
具体实施方式
对于本发明实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
方法实施例
参照图1,本实施例提供了一种抗并发的数据处理方法,包括以下步骤:
S1、当接收到第一用户数据请求时,解析获得第一用户数据请求中的第一用户ID;
S2、采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器;
S3、将第一用户数据请求发送到计算获得的Nginx服务器,使得该Nginx服务器将第一用户数据请求发送到其连接的Redis数据库进行处理;
其中,所述服务器环包括有多个Nginx服务器,各所述Nginx服务器均分别唯一连接有一Redis数据库,且每个Nginx服务器及其连接的Redis数据库构成一web服务器。
本实施例中的用户数据请求,指用户发出的任意数据请求,例如查询数据访问请求,或者积分数据请求,例如具体游戏或者应用程序中的钻石、金币、种子等的数据请求。
本实施例中的“第一”、“第二”仅用于进行同一名词的区分,不具有特殊含义。
本实施例中,所构建的服务器环包括多个Nginx服务器,且每个Nginx服务器分别唯一连接有一Redis数据库,在接收到用户数据请求时,解析获得用户数据请求中的用户ID,从而采用哈希算法计算该用户ID在服务器环中对应的Nginx服务器后,将用户数据请求发送到计算获得的Nginx服务器连接的Redis数据库进行处理,从而在接收到大量用户数据请求的并发请求时,本实施例只要计算获得各用户数据请求对应的Nginx服务器,从而将大量用户数据请求分发到对应的Nginx服务器连接的Redis数据库进行处理,可以避免并发数据访问导致的卡顿或者崩溃的问题,本方法可以有效地对并发数据进行处理,且处理效率高。
进一步作为优选的实施方式,所述服务器环通过以下方式生成:
分别根据每个Nginx服务器的IP,通过一致性哈希算法计算每个Nginx服务器的第一哈希值后,根据计算的第一哈希值将多个Nginx服务器连接成一个服务器环。
基于每个Nginx服务器的IP,计算每个Nginx服务器的第一哈希值,从而可以根据计算获得的第一哈希值将多个Nginx服务器连接成一个服务器环,例如按照第一哈希值的升序或者降序方式进行连接,或者按照设定的其它排序方式进行连接等。从而后续应用中,可以根据Nginx服务器的哈希值,选择具体的Nginx服务器来处理同一个用户的数据请求,保证数据处理过程的一致性。
具体的,本实施例的一致性哈希算法可以采用现有技术的ketama哈希算法等,本实施例不做具体限定。
进一步作为优选的实施方式,所述步骤S2,其具体为:
采用哈希算法计算第一用户ID对应的第二哈希值后,根据预设的映射规则,在服务器环中查找获得第二哈希值对应的Nginx服务器。
这里,预设的映射规则是指用户ID的哈希值与Nginx服务器IP的哈希值之间的映射关系,可以根据实际应用情况进行任意设定,通过设定映射关系后,在接收到用户数据请求时,根据用户ID,查找获得对应的Nginx服务器来对用户数据请求进行处理,可以保证,同一个用户ID的用户数据请求均发送到同一台Nginx服务器进行处理,保证数据的一致性。
进一步作为优选的实施方式,还包括以下步骤:
S4、当检测到服务器环的负载过高时,将新接收到的第二用户数据请求缓存至MongoDB中,并为服务器环新增一Nginx服务器;其中,该新增的Nginx服务器唯一连接有一Redis数据库;
S5、解析获得第二用户数据请求中的第二用户ID,并将第二用户ID与新增的Nginx服务器建立映射关系,以使得新增的Nginx服务器从MongoDB读取第二用户数据请求,并发送到其连接的Redis数据库进行处理。
当服务器环的负载过高时,需要新增Nginx服务器,采用新增的Nginx服务器对新接收到的用户数据请求进行处理,避免原服务器环的过载导致的访问卡顿或者崩溃的问题。
进一步作为优选的实施方式,所述服务器环的负载过高是指接收到的总的用户数据请求超过服务器环的数据处理能力。
进一步作为优选的实施方式,所述步骤S4中所述为服务器环新增一Nginx服务器的步骤,具体为:
发出请求新增Nginx服务器的连接请求,并在该连接请求被同意后,接收对该连接请求的响应数据;
对接收的响应数据进行解析,获得其中的Nginx服务器的IP,进而根据该Nginx服务器的IP,通过一致性哈希算法计算该Nginx服务器的第一哈希值;
根据该Nginx服务器的第一哈希值,将该Nginx服务器加入到服务器环中。
其中,发出请求新增Nginx服务器的连接请求,是指向空闲的Nginx服务器发出的连接请求,从而空闲的Nginx服务器同意连接时,会发送对应的包括Nginx服务器的IP的响应数据过来,从而可以根据该Nginx服务器的IP,计算第一哈希值后,将该Nginx服务器连接到服务器环中。
进一步作为优选的实施方式,所述步骤S2中,还包括以下步骤:
将第一用户ID与服务器环中对应的Nginx服务器建立映射关系,以使得该第一用户ID发送的所有数据请求均由其在服务器环中对应的Nginx服务器处理。
将用户ID与计算获得的对应的Nginx服务器建立映射关系,可以保证,后续处理过程中,同一个用户ID的用户数据请求均发送到同一台Nginx服务器进行处理,保证数据的一致性。
系统实施例
参照图2,本实施例提供了一种抗并发的数据处理系统,包括业务服务器和多个web服务器,各所述web服务器均分别包括一Nginx服务器,所述业务服务器分别与各Nginx服务器连接,各所述Nginx服务器唯一连接有一Redis数据库,多个Nginx服务器构成一服务器环;
所述业务服务器用于:
当接收到第一用户数据请求时,解析获得第一用户数据请求中的第一用户ID;
采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器;
将第一用户数据请求发送到计算获得的Nginx服务器,使得该Nginx服务器将第一用户数据请求发送到其连接的Redis数据库进行处理。
本实施例中,多个Nginx服务器构成一服务器环,且每个Nginx服务器分别唯一连接有一Redis数据库,在接收到用户数据请求时,解析获得用户数据请求中的用户ID,从而采用哈希算法计算该用户ID在服务器环中对应的Nginx服务器后,将用户数据请求发送到计算获得的Nginx服务器连接的Redis数据库进行处理,从而在接收到大量用户数据请求的并发请求时,本实施例只要计算获得各用户数据请求对应的Nginx服务器,从而将大量用户数据请求分发到对应的Nginx服务器连接的Redis数据库进行处理,可以避免并发数据访问导致的卡顿或者崩溃的问题,本系统可以有效地对并发数据进行处理,且处理效率高。
具体的,服务器环的构建方式、业务服务器的详细功能描述与方法实施例中一致,本实施例不再赘述。
本实施例的抗并发的数据处理系统,可执行本发明方法实施例所提供的一种抗并发的数据处理方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
装置实施例
参照图3,本实施例提供了一种抗并发的数据处理装置,包括:
解析模块,用于当接收到第一用户数据请求时,解析获得第一用户数据请求中的第一用户ID;
计算模块,用于采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器;
处理模块,用于将第一用户数据请求发送到计算获得的Nginx服务器,使得该Nginx服务器将第一用户数据请求发送到其连接的Redis数据库进行处理;
其中,所述服务器环包括有多个Nginx服务器,各所述Nginx服务器均分别唯一连接有一Redis数据库,且每个Nginx服务器及其连接的Redis数据库构成一web服务器。
本实施例中,所构建的服务器环包括多个Nginx服务器,且每个Nginx服务器分别唯一连接有一Redis数据库,在接收到用户数据请求时,解析获得用户数据请求中的用户ID,从而采用哈希算法计算该用户ID在服务器环中对应的Nginx服务器后,将用户数据请求发送到计算获得的Nginx服务器连接的Redis数据库进行处理,从而在接收到大量用户数据请求的并发请求时,本实施例只要计算获得各用户数据请求对应的Nginx服务器,从而将大量用户数据请求分发到对应的Nginx服务器连接的Redis数据库进行处理,可以避免并发数据访问导致的卡顿或者崩溃的问题,本装置可以有效地对并发数据进行处理,且处理效率高。
本实施例的抗并发的数据处理装置,可执行本发明方法实施例所提供的一种抗并发的数据处理方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
另外,本发明实施例还提供了一种存储介质,其存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于执行所述的一种抗并发的数据处理方法,可以避免并发数据访问导致的卡顿或者崩溃的问题,可以有效地对并发数据进行处理,且处理效率高。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变型或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.一种抗并发的数据处理方法,其特征在于,包括以下步骤:
当接收到第一用户数据请求时,解析获得第一用户数据请求中的第一用户ID;
采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器;
将第一用户数据请求发送到计算获得的Nginx服务器,使得该Nginx服务器将第一用户数据请求发送到其连接的Redis数据库进行处理;
其中,所述服务器环包括有多个Nginx服务器,各所述Nginx服务器均分别唯一连接有一Redis数据库,且每个Nginx服务器及其连接的Redis数据库构成一web服务器。
2.根据权利要求1所述的抗并发的数据处理方法,其特征在于,所述服务器环通过以下方式生成:
分别根据每个Nginx服务器的IP,通过一致性哈希算法计算每个Nginx服务器的第一哈希值后,根据计算的第一哈希值将多个Nginx服务器连接成一个服务器环。
3.根据权利要求2所述的抗并发的数据处理方法,其特征在于,所述采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器这一步骤,其具体为:
采用哈希算法计算第一用户ID对应的第二哈希值后,根据预设的映射规则,在服务器环中查找获得第二哈希值对应的Nginx服务器。
4.根据权利要求2所述的抗并发的数据处理方法,其特征在于,还包括以下步骤:
当检测到服务器环的负载过高时,将新接收到的第二用户数据请求缓存至MongoDB中,并为服务器环新增一Nginx服务器;其中,该新增的Nginx服务器唯一连接有一Redis数据库;
解析获得第二用户数据请求中的第二用户ID,并将第二用户ID与新增的Nginx服务器建立映射关系,以使得新增的Nginx服务器从MongoDB读取第二用户数据请求,并发送到其连接的Redis数据库进行处理。
5.根据权利要求4所述的抗并发的数据处理方法,其特征在于,所述服务器环的负载过高是指接收到的总的用户数据请求超过服务器环的数据处理能力。
6.根据权利要求4所述的抗并发的数据处理方法,其特征在于,所述为服务器环新增一Nginx服务器的步骤,具体为:
发出请求新增Nginx服务器的连接请求,并在该连接请求被同意后,接收对该连接请求的响应数据;
对接收的响应数据进行解析,获得其中的Nginx服务器的IP,进而根据该Nginx服务器的IP,通过一致性哈希算法计算该Nginx服务器的第一哈希值;
根据该Nginx服务器的第一哈希值,将该Nginx服务器加入到服务器环中。
7.根据权利要求1至6任一项所述的抗并发的数据处理方法,其特征在于,所述采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器这一步骤中,还包括以下步骤:
将第一用户ID与服务器环中对应的Nginx服务器建立映射关系,以使得该第一用户ID发送的所有数据请求均由其在服务器环中对应的Nginx服务器处理。
8.一种抗并发的数据处理系统,其特征在于,包括业务服务器和多个web服务器,各所述web服务器均分别包括一Nginx服务器,所述业务服务器分别与各Nginx服务器连接,各所述Nginx服务器唯一连接有一Redis数据库,多个Nginx服务器构成一服务器环;
所述业务服务器用于:
当接收到第一用户数据请求时,解析获得第一用户数据请求中的第一用户ID;
采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器;
将第一用户数据请求发送到计算获得的Nginx服务器,使得该Nginx服务器将第一用户数据请求发送到其连接的Redis数据库进行处理。
9.一种抗并发的数据处理装置,其特征在于,包括:
解析模块,用于当接收到第一用户数据请求时,解析获得第一用户数据请求中的第一用户ID;
计算模块,用于采用哈希算法计算第一用户ID在服务器环中对应的Nginx服务器;
处理模块,用于将第一用户数据请求发送到计算获得的Nginx服务器,使得该Nginx服务器将第一用户数据请求发送到其连接的Redis数据库进行处理;
其中,所述服务器环包括有多个Nginx服务器,各所述Nginx服务器均分别唯一连接有一Redis数据库,且每个Nginx服务器及其连接的Redis数据库构成一web服务器。
10.一种存储介质,其存储有处理器可执行的指令,其特征在于,所述处理器可执行的指令在由处理器执行时用于执行如权利要求1-7任一项所述的一种抗并发的数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811249015.6A CN109327523A (zh) | 2018-10-25 | 2018-10-25 | 一种抗并发的数据处理方法、系统、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811249015.6A CN109327523A (zh) | 2018-10-25 | 2018-10-25 | 一种抗并发的数据处理方法、系统、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109327523A true CN109327523A (zh) | 2019-02-12 |
Family
ID=65262147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811249015.6A Pending CN109327523A (zh) | 2018-10-25 | 2018-10-25 | 一种抗并发的数据处理方法、系统、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109327523A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110841282A (zh) * | 2019-10-30 | 2020-02-28 | 腾讯科技(深圳)有限公司 | 数据处理方法和装置、存储介质及电子装置 |
CN115914399A (zh) * | 2022-09-29 | 2023-04-04 | 京东科技信息技术有限公司 | 请求数据发送方法、装置、设备、介质和程序产品 |
-
2018
- 2018-10-25 CN CN201811249015.6A patent/CN109327523A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110841282A (zh) * | 2019-10-30 | 2020-02-28 | 腾讯科技(深圳)有限公司 | 数据处理方法和装置、存储介质及电子装置 |
CN115914399A (zh) * | 2022-09-29 | 2023-04-04 | 京东科技信息技术有限公司 | 请求数据发送方法、装置、设备、介质和程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7376695B2 (en) | Method and system for generating a graphical display for a remote terminal session | |
Abdelzaher et al. | Web content adaptation to improve server overload behavior | |
US7349929B2 (en) | Accessing data based on user identity | |
US8548976B2 (en) | Balancing load requests and failovers using a UDDI proxy | |
US20030018621A1 (en) | Distributed information search in a networked environment | |
JP2008545189A (ja) | 複数のポートレットを含むポータル・ページを生成する方法、装置、およびコンピュータ・プログラム(ポータル・ページにおけるポートレットのスタッキング) | |
KR20000076843A (ko) | 협력적 프록시 시스템의 개체 랜더링 분산 전개를 위한방법 및 장치 | |
US20210357461A1 (en) | Method, apparatus and storage medium for searching blockchain data | |
US12001335B2 (en) | In-memory normalization of cached objects to reduce cache memory footprint | |
US8930518B2 (en) | Processing of write requests in application server clusters | |
US11023499B2 (en) | Object relational mapping for relational databases | |
US7636769B2 (en) | Managing network response buffering behavior | |
CN110975293A (zh) | 建立资源引用关系表的方法、装置、服务器及介质 | |
US7827141B2 (en) | Dynamically sizing buffers to optimal size in network layers when supporting data transfers related to database applications | |
CN109327523A (zh) | 一种抗并发的数据处理方法、系统、装置及存储介质 | |
US11494408B2 (en) | Asynchronous row to object enrichment of database change streams | |
US12001458B2 (en) | Multi-cloud object store access | |
US20020092012A1 (en) | Smart-caching system and method | |
Shailesh et al. | An analysis of techniques and quality assessment for Web performance optimization | |
US20140108420A1 (en) | Index creation method and system | |
US9805373B1 (en) | Expertise services platform | |
US20050273716A1 (en) | Database server paging method | |
CN113849255B (zh) | 一种数据处理方法、设备以及存储介质 | |
US20240089339A1 (en) | Caching across multiple cloud environments | |
US20140310385A1 (en) | Method and server for pushing media file |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190212 |