CN110209693A - 高并发数据查询方法、装置、系统、设备及可读存储介质 - Google Patents

高并发数据查询方法、装置、系统、设备及可读存储介质 Download PDF

Info

Publication number
CN110209693A
CN110209693A CN201910389924.8A CN201910389924A CN110209693A CN 110209693 A CN110209693 A CN 110209693A CN 201910389924 A CN201910389924 A CN 201910389924A CN 110209693 A CN110209693 A CN 110209693A
Authority
CN
China
Prior art keywords
data
write
concurrent
query
copies
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910389924.8A
Other languages
English (en)
Inventor
杨兆辉
汪金忠
徐根林
孙迁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suning Cloud Computing Co Ltd
Original Assignee
Suning Cloud Computing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suning Cloud Computing Co Ltd filed Critical Suning Cloud Computing Co Ltd
Priority to CN201910389924.8A priority Critical patent/CN110209693A/zh
Publication of CN110209693A publication Critical patent/CN110209693A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2453Query optimisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种高并发数据查询方法、装置、系统、设备及计算机可读存储介质,属于大数据技术领域。所述方法包括:根据数据分片的查询历史数据获取查询并发数;根据所述查询并发数计算得到写入副本数;根据所述写入副本数,按照写入负载指数由低到高分别写入到对应节点;根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果。本发明通过提供一种高并发数据查询方案,使得在大数据高并发查询场景下,用户的查询性能不会降低,查询性能稳定,波动小。

Description

高并发数据查询方法、装置、系统、设备及可读存储介质
技术领域
本发明涉及大数据技术领域,特别涉及一种高并发数据查询方法、装置、系统、设备及计算机可读存储介质。
背景技术
在大数据实时分析领域,需要在短时间内从海量数据中查询数据并聚合为结果,具:数据量大、计算密集型、响应时间短(通常在5秒内)。为了提升查询性能,通常会把数据按照一定的逻辑切成多个数据分片,分别存储在多台服务器上,用户进行查询时,从多个服务器上并行查询数据,然后交给汇总服务器汇总结果返回给用户。数据分片通常为主备两个副本,分别存在不同的服务器上,这样可以提高系统的容错能力和可用性。
在少量用户查询情况下,上述的大数据实时分析可以在相对合理的时间内响应,当查询并发量大时,由于对数据分片的读写(IO)、计算(CPU)出现争抢的情况,导致查询的响应时长急聚上升,例如:2个用户并发查询情况下,在1秒返回结果,20个用户并发查询,在10秒返回结果,高并发查询情况下,用户查询等待时间变长。
发明内容
为了解决现有技术的问题,本发明实施例提供了一种高并发数据查询方法、装置、系统、设备及可读存储介质,在大数据高并发查询场景下,使得用户的查询性能不会降低,查询性能稳定,波动小。所述技术方案如下:
第一方面,提供了一种高并发数据查询方法,所述方法包括:根据数据分片的查询历史数据获取查询并发数;根据所述查询并发数计算得到写入副本数;根据所述写入副本数,按照写入负载指数由低到高分别写入到对应节点;根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果。
结合第一方面,在第一种可能的实现方式中,根据所述查询并发数计算得到写入副本数,包括:根据所述查询并发数以及每个副本支持并发数计算得到写入副本数。
结合第一方面,在第二种可能的实现方式中,根据所述写入副本数,按照写入负载指数由低到高分别写入到对应节点,包括:根据每个节点当前的IO利用率、CPU利用率以及第一预设权重规则计算得到所有节点的写入负载指数。
结合第一方面,在第三种可能的实现方式中,根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果,包括:根据每个节点当前的IO利用率、CPU利用率、网络负荷利用率以及第二预设权重规则计算得到所有节点的查询负载指数。
结合第一方面及第一方面的第一至三种可能实现方式的任一种,在第四至七种可能的实现方式中,所述方法还包括:根据所述数据分片的查询历史数据,利用ARIMA时间序列模型预测未来需要增加的增加副本数,根据所述增加副本数进行副本动态调整。
第二方面,提供了一种高并发数据查询装置,所述装置包括:查询并发数获取模块,用于根据数据分片的查询历史数据获取查询并发数;写入副本数计算模块,用于根据所述查询并发数计算得到写入副本数;副本写入模块,用于根据所述写入副本数,按照写入负载指数由低到高分别写入到对应节点;查询结果获取模块,用于根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果。
结合第二方面,在第一种可能的实现方式中,所述写入副本数计算模块用于:根据所述查询并发数以及每个副本支持并发数计算得到写入副本数。
结合第二方面,在第二种可能的实现方式中,所述副本写入模块包括第一计算子模块,所述第一计算子模块用于:根据每个节点当前的IO利用率、CPU利用率以及第一预设权重规则计算得到所有节点的写入负载指数。
结合第二方面,在第三种可能的实现方式中,所述查询结果获取模块包括第二计算子模块,所述第二计算子模块用于:根据每个节点当前的IO利用率、CPU利用率、网络负荷利用率以及第二预设权重规则计算得到所有节点的查询负载指数。
结合第二方面及第二方面的第一至三种可能实现方式的任一种,在第四至七种可能的实现方式中,所述装置还包括副本动态调整模块,用于:根据所述数据分片的查询历史数据,利用ARIMA时间序列模型预测未来需要增加的增加副本数,根据所述增加副本数进行副本动态调整。
第三方面,提供了一种高并发数据查询系统,所述系统包括数据副本管理器、数据加载器、查询负载均衡器以及多个节点,其中,所述数据副本管理器用于:根据数据分片的查询历史数据获取查询并发数,并根据所述查询并发数计算得到写入副本数;所述数据加载器,用于根据所述写入副本数,按照写入负载指数由低到高分别写入到对应节点;所述查询负载均衡器,用于根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果。
结合第三方面,在第一种可能的实现方式中,所述数据副本管理器还用于:根据所述数据分片的查询历史数据,利用ARIMA时间序列模型预测未来需要增加的增加副本数,根据所述增加副本数进行副本动态调整。
第四方面,提供了一种高并发数据查询设备,包括:处理器;存储器,用于存储有所述处理器的可执行指令;其中,所述处理器配置为经由所述可执行指令来执行上述方案任一项所述的高并发数据查询方法的步骤。
第五方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述方案任一项所述的高并发数据查询方法的步骤。
本发明实施例提供的技术方案带来的有益效果是:
1、根据数据分片的查询历史数据获取查询并发数,再根据所述查询并发数计算得到写入副本数,能够根据数据分片的一般查询需求获知所需写入副本数量,然后按照写入负载指数由低到高分别将写入副本写入到对应节点,首先采用这样的分发写入策略,避免了数据写入的单点压力,提高了写入性能,
2、当接收到数据分片的查询请求时,按照查询负载指数由低到高到相应节点获取查询结果,动态调度用户的查询请求,有效保障了查询的响应时延,即较短的查询响应时长,确保了查询的响应时间保持平稳,有效提升了系统查询性能,例如:1秒内返回结果的查询,在10倍或更多并发量查询的情况下,用户的查询性能不降低,依然是1秒内返回结果,系统的查询性能比较稳定,波动很小;
3、又由于按照实际查询需求进行数据分片副本配置以及查询节点的合理配置,有效保障了查询性能的稳定性,同时也提高了存储资源的利用率;
4、根据查询请求的历史数据,按照ARIMA时间序列模型预测未来需要保存的副本数量,动态调整副本的数量,保持用户查询性能的平滑性;
5、由于是多副本存储,整体具有足够高的容错性、可靠性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的高并发数据查询方法流程图;
图2是本发明实施例提供的高并发数据查询装置结构示意图;
图3是本发明实施例提供的高并发数据查询系统结构示意图;
图4是一优选实施例提供的写入副本的副本写入流程图;
图5是一优选实施例提供的副本数量计算及副本写入过程的演示图;
图6是一优选实施例提供的数据查询请求过程的演示图;
图7是一优选实施例提供的副本动态调整过程的演示图;
图8是本发明实施例提供的高并发数据查询设备结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个以上,除非另有明确具体的限定。
本发明实施例提供的高并发数据查询方法、装置、系统、设备及计算机可读存储介质,根据数据分片的查询历史数据获取查询并发数,再根据所述查询并发数计算得到写入副本数,能够根据数据分片的一般查询需求获知所需写入副本数量,然后按照写入负载指数由低到高分别将写入副本写入到对应节点,这里的查询历史数据优选地采用QPS平均值统计数据。首先采用这样的分发写入策略,避免了数据写入的单点压力,提高了写入性能,并且,当接收到数据分片的查询请求时,按照查询负载指数由低到高到相应节点获取查询结果,既保障了较短的查询响应时长,确保了查询的响应时间保持平稳,有效提升了系统查询性能,又由于按照实际查询需求进行数据分片副本配置以及查询节点的合理配置,有效保障了查询性能的稳定性,同时也提高了存储资源的利用率,并且整体具有足够高的容错性、可靠性。因此,本发明实施例提供的高并发数据查询方案,可以广泛应用于涉及高并发数据查询的多种大数据应用场景。
下面结合具体实施例及附图,对本发明实施例提供的高并发数据查询方法、装置、系统、设备及可读存储介质作详细说明。
图1是本发明实施例提供的高并发数据查询方法流程图,如图1所示,本发明实施例提供的高并发数据查询方法,包括以下步骤:
101、根据数据分片的查询历史数据获取查询并发数。
具体的,通过数据分片的查询历史数据计算得到用户查询数据分片的查询并发数。
值得注意的是,步骤101根据数据分片的查询历史数据获取查询并发数的过程,除了上述步骤所述的方式之外,还可以通过其他方式实现该过程,本发明实施例对具体的方式不加以限定。
102、根据查询并发数计算得到写入副本数。
具体的,根据查询并发数以及每个副本支持并发数计算得到写入副本数,可以通过以下公式计算得到:
查询并发数/每副本支持并发数=副本数
根据查询并发数计算出需要保存的副本数,副本数量代表支持的并发数,根据业务需求,不同数据集可以支持不同的并发数,避免了存储资源的浪费,通过增加机器(即节点),每台机器上保存相同的副本,可以线性提升系统所能支持的查询并发数。
值得注意的是,步骤102根据查询并发数计算得到写入副本数的过程,除了上述步骤所述的方式之外,还可以通过其他方式实现该过程,本发明实施例对具体的方式不加以限定。
103、根据写入副本数,按照写入负载指数由低到高分别写入到对应节点;
具体的,根据每个节点当前的IO利用率、CPU利用率以及第一预设权重规则计算得到所有节点的写入负载指数,然后按照写入负载指数由低到高将写入副本数的副本分别写入到对应节点。这里的,第一预设权重规则是指IO利用率与CPU利用率在计算写入负载指数时的权重分布,例如IO利用率权重:CPU利用率权重为2:8,IO利用率权重+CPU利用率权重=1,等等,可以根据实际情况需要进行相应设置。写入负载指数可以通过以下公式计算得到:
写入负载指数=IO利用率*IO利用率权重+CPU利用率*CPU利用率权重
将数据分片加载到具有写入副本数量的节点中,形成数据分片的写入副本数个副本,每个副本在每个节点的内容是相同的。
值得注意的是,步骤103根据写入副本数,按照写入负载指数由低到高分别写入到对应节点的过程,除了上述步骤所述的方式之外,还可以通过其他方式实现该过程,本发明实施例对具体的方式不加以限定。
104、根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果。
具体的,根据每个节点当前的IO利用率、CPU利用率、网络负荷利用率以及第二预设权重规则计算得到所有节点的查询负载指数。然后按照查询负载指数由低到高将写入副本数的副本分别写入到对应节点。这里的,第二预设权重规则是指IO利用率、CPU利用率与网络负荷利用率在计算写入负载指数时的权重分布,例如IO利用率权重:CPU利用率权重:网络负荷利用率权重为4:4:2,IO利用率权重+CPU利用率权重+网络负荷利用率权重=1,等等,可以根据实际情况需要进行相应设置。写入负载指数可以通过以下公式计算得到:
查询负载指数=IO利用率*IO利用率权重+CPU利用率*CPU利用率权重+网络负荷利用率*网络负荷利用率权重
从以上的查询流程中看出,当某一节点在处理查询请求时,其他的节点没有增加负载,可以接收其他的查询请求,有效的提升了系统查询性能,确保了查询的响应时间保持平稳。
值得注意的是,步骤104根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果的过程,除了上述步骤所述的方式之外,还可以通过其他方式实现该过程,本发明实施例对具体的方式不加以限定。
可选的,上述高并发数据查询方法还包括副本动态调整步骤:
根据数据分片的查询历史数据,利用ARIMA时间序列模型预测未来需要增加的增加副本数,根据增加副本数进行副本动态调整,以保持用户查询性能的平滑性。
值得注意的是,副本动态调整步骤的过程,除了上述步骤所述的方式之外,还可以通过其他方式实现该过程,本发明实施例对具体的方式不加以限定。
图2是本发明实施例提供的高并发数据查询装置结构示意图。如图2所示,本发明实施例提供的高并发数据查询装置2包括查询并发数获取模块21、写入副本数计算模块22、副本写入模块23及查询结果获取模块24。
其中,查询并发数获取模块21,用于根据数据分片的查询历史数据获取查询并发数。
写入副本数计算模块22,用于根据查询并发数计算得到写入副本数。具体的,写入副本数计算模块22用于:根据查询并发数以及每个副本支持并发数计算得到写入副本数。
副本写入模块23,用于根据写入副本数,按照写入负载指数由低到高分别写入到对应节点。具体的,副本写入模块23包括第一计算子模块231,第一计算子模块231用于:根据每个节点当前的IO利用率、CPU利用率以及第一预设权重规则计算得到所有节点的写入负载指数。
查询结果获取模块24,用于根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果。具体的,查询结果获取模块24包括第二计算子模块241,第二计算子模块241用于:根据每个节点当前的IO利用率、CPU利用率、网络负荷利用率以及第二预设权重规则计算得到所有节点的查询负载指数。
可选的,上述高并发数据查询装置还包括副本动态调整模块25,具体用于:根据数据分片的查询历史数据,利用ARIMA时间序列模型预测未来需要增加的增加副本数,根据增加副本数进行副本动态调整。
图3是本发明实施例提供的高并发数据查询系统结构示意图,如图3所示,本发明实施例提供的高并发数据查询系统包括数据副本管理器31、数据加载器32、查询负载均衡器33以及多个节点,其中,数据副本管理器31用于:根据数据分片的查询历史数据获取查询并发数,并根据查询并发数计算得到写入副本数;数据加载器32,用于根据写入副本数,按照写入负载指数由低到高分别写入到对应节点;查询负载均衡器33,用于根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果。
可选的,数据副本管理器31还用于:根据数据分片的查询历史数据,利用ARIMA时间序列模型预测未来需要增加的增加副本数,根据增加副本数进行副本动态调整。
可选的,查询负载均衡器33将查询结果返回给用户,如果查询涉及多个数据分片,则进行一些数据分片合并的操作,合并完成后再将结果返回给用户。
下面结合一优选实施例进一步说明本发明实施例提供的高并发数据查询方法及装置。
图4是该优选实施例提供的写入副本的副本写入流程图。如图4所示,写入副本的副本写入过程,主要包括以下流程:
1、数据副本管理器31根据数据分片A查询的QPS平均值统计数据计算出用户查询的并发数,根据并发数计算出写入副本的数量,计算公式如下:
并发查询数/每副本支持并发数=副本数
例如:并发查询数为8,每副本支持的并发数为2,则写入副本的数量为:4。数据加载器32准备将数据分片A写入4个副本。副本数计算公式如下:
8/2=4
2、数据加载器32选择一个负载最低的节点,做为副本写入首个节点。节点的负载情况从IO、CPU两个维度的来进行评估,IO利用率占的权重为30%,CPU利用率权重为70%。
例如:IO利用率为60%,CPU利用率为50%,则该节点的写入负载指数为:
60%*0.3+50%*0.7=53%
3、数据加载器32将数据写入首个节点,如果首个节点由于某些异常情况导致写入失败,则跳回到步骤2,如果写入成功,则进入下一个步骤。
4、首个节点写入完成,首个节点将副本写入到其他三个节点,在写入其他三个节点时,如果写入失败则重试其他的节点。
图5是该优选实施例提供的副本数量计算及副本写入过程的演示图。
如图5所示,以写入4个数据副本A1、A2、A3、A4的示例来说明数据流向,副本数量计算及副本写入过程,主要包括以下流程:
①数据副本管理器31计算出副本数量;
②数据加载器32将数据写入首个节点;
③首个节点再将数据分发到其余的三个节点,其他节点写入成功,则将写入成功的消息发送给首节点,首节点将写入成功的消息再反馈给数据加载器32。
如果有更多的副本需要写入,则由其他三个节点继续分发到其他节点,采用这样的分发副本策略,避免了数据写入的单点压力,提高写入性能。
图6是该优选实施例提供的数据查询请求过程的演示图,如图6所示,数据查询请求过程,主要包括以下流程:
①用户发起查询数据分片A的请求,查询负载均衡器33接收到查询请求。
②查询负载均衡器33根据存储数据分片A的节点负载情况,选择一个当前负载最轻的节点,优先选择当前没有用户查询的节点,如果所有的节点都有用户查询则选择负荷较低的节点,否则提示系统满负荷,稍后重试。例如发现节点3的负载最轻,被选中作为查询节点。节点的负载情况从IO、CPU、网络负荷三个维度的来进行评估,IO利用率占的权重为30%,CPU利用率权重为50%,网络负荷利用率权重为20%。
例如:IO利用率为60%,CPU利用率为50%,网络利用率为40%,则该节点的查询负载指数为:
60%*0.3+50%*0.5+40%*0.2=51%
③节点3按照查询请求检索数据分片A的数据,将检索结果返回给查询负载均衡器33。如果节点3查询数据时出现异常情况,则跳回到步骤②。
④查询负载均衡器33收到查询请求的结果后,响应给用户,查询流程结束。
从以上的查询流程中看出,当节点3在处理查询请求时,其他的节点没有增加负载,可以接收其他的查询请求,有效的提升了系统的并发度,确保了查询的响应时间保持平稳。
图7是该优选实施例提供的副本动态调整过程的演示图,如图7所示,副本动态调整过程,主要包括以下流程:
①数据副本管理器31根据查询QPS平均值统计数据,按照ARIMA时间序列模型预测未来查询的趋势,假设计算出未来需要增加一个副本。
②选择当前负荷比较轻的节点,例如选择了节点4,数据副本管理器31通知该节点将数据副本复制到新节点。
③节点4将数据副本复制到新的节点5,在节点5上保存了副本5。
④查询负载均衡器33感知到新加入的副本5,当有新的查询请求时,根据负载调度策略调度到节点5进行查询。
从以上的流程可以看出,可以根据查询的历史趋势,动态的调整副本数量,当查询并发呈现上涨趋势时,增加副本数量,下降趋势时减少副本数量,有效的保障了查询性能的稳定性,同时也提高了存储资源的利用率。
图8是本发明实施例提供的高并发数据查询设备结构示意图,如图8所示,本发明实施例提供的高并发数据查询设备4,包括:
处理器41;
存储器42,用于存储有处理器41的可执行指令;
其中,处理器41配置为经由所述可执行指令来执行上述任一方案所述的高并发数据查询方法的步骤。
另外,本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述任一方案所述的高并发数据查询方法的步骤。
需要说明的是:上述实施例提供的高并发数据查询装置、高并发数据查询装置在高并发数据查询业务时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置、设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的高并发数据查询方法、高并发数据查询装置、高并发数据查询设备以及计算机可读存储介质的实施例均属于同一构思,不必赘述。
上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
综上所述,本发明实施例提供的高并发数据查询方法、装置、系统、设备及计算机可读存储介质,相比现有技术具有以下有益效果:
1、根据数据分片的查询历史数据获取查询并发数,再根据所述查询并发数计算得到写入副本数,能够根据数据分片的一般查询需求获知所需写入副本数量,然后按照写入负载指数由低到高分别将写入副本写入到对应节点,首先采用这样的分发写入策略,避免了数据写入的单点压力,提高了写入性能,
2、当接收到数据分片的查询请求时,按照查询负载指数由低到高到相应节点获取查询结果,动态调度用户的查询请求,有效保障了查询的响应时延,即较短的查询响应时长,确保了查询的响应时间保持平稳,有效提升了系统查询性能,例如:1秒内返回结果的查询,在10倍或更多并发量查询的情况下,用户的查询性能不降低,依然是1秒内返回结果,系统的查询性能比较稳定,波动很小;
3、又由于按照实际查询需求进行数据分片副本配置以及查询节点的合理配置,有效保障了查询性能的稳定性,同时也提高了存储资源的利用率;
4、根据查询请求的历史数据,按照ARIMA时间序列模型预测未来需要保存的副本数量,动态调整副本的数量,保持用户查询性能的平滑性;
5、由于是多副本存储,整体具有足够高的容错性、可靠性。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
本申请实施例中是参照根据本申请实施例中实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例中的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例中范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。

Claims (14)

1.一种高并发数据查询方法,其特征在于,所述方法包括:
根据数据分片的查询历史数据获取查询并发数;
根据所述查询并发数计算得到写入副本数;
根据所述写入副本数,按照写入负载指数由低到高分别写入到对应节点;
根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果。
2.根据权利要求1所述的方法,其特征在于,根据所述查询并发数计算得到写入副本数,包括:
根据所述查询并发数以及每个副本支持并发数计算得到写入副本数。
3.根据权利要求1所述的方法,其特征在于,根据所述写入副本数,按照写入负载指数由低到高分别写入到对应节点,包括:
根据每个节点当前的IO利用率、CPU利用率以及第一预设权重规则计算得到所有节点的写入负载指数。
4.根据权利要求1所述的方法,其特征在于,根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果,包括:
根据每个节点当前的IO利用率、CPU利用率、网络负荷利用率以及第二预设权重规则计算得到所有节点的查询负载指数。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述方法还包括:
根据所述数据分片的查询历史数据,利用ARIMA时间序列模型预测未来需要增加的增加副本数,根据所述增加副本数进行副本动态调整。
6.一种高并发数据查询装置,其特征在于,所述装置包括:
查询并发数获取模块,用于根据数据分片的查询历史数据获取查询并发数;
写入副本数计算模块,用于根据所述查询并发数计算得到写入副本数;
副本写入模块,用于根据所述写入副本数,按照写入负载指数由低到高分别写入到对应节点;
查询结果获取模块,用于根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果。
7.根据权利要求6所述的装置,其特征在于,所述写入副本数计算模块用于:
根据所述查询并发数以及每个副本支持并发数计算得到写入副本数。
8.根据权利要求6所述的装置,其特征在于,所述副本写入模块包括第一计算子模块,所述第一计算子模块用于:
根据每个节点当前的IO利用率、CPU利用率以及第一预设权重规则计算得到所有节点的写入负载指数。
9.根据权利要求6所述的装置,其特征在于,所述查询结果获取模块包括第二计算子模块,所述第二计算子模块用于:
根据每个节点当前的IO利用率、CPU利用率、网络负荷利用率以及第二预设权重规则计算得到所有节点的查询负载指数。
10.根据权利要求6至9任一项所述的装置,其特征在于,所述装置还包括副本动态调整模块,用于:
根据所述数据分片的查询历史数据,利用ARIMA时间序列模型预测未来需要增加的增加副本数,根据所述增加副本数进行副本动态调整。
11.一种高并发数据查询系统,其特征在于,所述系统包括数据副本管理器、数据加载器、查询负载均衡器以及多个节点,其中,
所述数据副本管理器用于:根据数据分片的查询历史数据获取查询并发数,并根据所述查询并发数计算得到写入副本数;
所述数据加载器,用于根据所述写入副本数,按照写入负载指数由低到高分别写入到对应节点;
所述查询负载均衡器,用于根据数据分片的查询请求,按照查询负载指数由低到高到相应节点获取查询结果。
12.根据权利要求11所述的系统,其特征在于,所述数据副本管理器还用于:根据所述数据分片的查询历史数据,利用ARIMA时间序列模型预测未来需要增加的增加副本数,根据所述增加副本数进行副本动态调整。
13.一种高并发数据查询设备,其特征在于,包括:
处理器;
存储器,用于存储有所述处理器的可执行指令;
其中,所述处理器配置为经由所述可执行指令来执行权利要求1至5中任一项所述的高并发数据查询方法的步骤。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的高并发数据查询方法的步骤。
CN201910389924.8A 2019-05-10 2019-05-10 高并发数据查询方法、装置、系统、设备及可读存储介质 Pending CN110209693A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910389924.8A CN110209693A (zh) 2019-05-10 2019-05-10 高并发数据查询方法、装置、系统、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910389924.8A CN110209693A (zh) 2019-05-10 2019-05-10 高并发数据查询方法、装置、系统、设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN110209693A true CN110209693A (zh) 2019-09-06

Family

ID=67785793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910389924.8A Pending CN110209693A (zh) 2019-05-10 2019-05-10 高并发数据查询方法、装置、系统、设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN110209693A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113312381A (zh) * 2020-07-31 2021-08-27 阿里巴巴集团控股有限公司 数据处理方法和装置
CN114338725A (zh) * 2021-12-31 2022-04-12 深圳市瑞云科技有限公司 一种提升大规模集群渲染上限的分布式存储调度方法
CN114398371A (zh) * 2022-01-13 2022-04-26 九有技术(深圳)有限公司 数据库集群系统多副本分片方法、装置、设备及存储介质
CN114787791A (zh) * 2019-11-25 2022-07-22 谷歌有限责任公司 规则违规检测

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488180A (zh) * 2015-11-30 2016-04-13 中国建设银行股份有限公司 一种数据存储方法及系统
CN108363643A (zh) * 2018-03-27 2018-08-03 东北大学 一种基于文件访问热度的hdfs副本管理方法
CN109032801A (zh) * 2018-07-26 2018-12-18 郑州云海信息技术有限公司 一种请求调度方法、系统及电子设备和存储介质
CN109522289A (zh) * 2018-10-30 2019-03-26 咪咕文化科技有限公司 副本的存放处理方法、装置及计算机存储介质
CN109697018A (zh) * 2017-10-20 2019-04-30 北京京东尚科信息技术有限公司 调整存储节点副本数量的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488180A (zh) * 2015-11-30 2016-04-13 中国建设银行股份有限公司 一种数据存储方法及系统
CN109697018A (zh) * 2017-10-20 2019-04-30 北京京东尚科信息技术有限公司 调整存储节点副本数量的方法和装置
CN108363643A (zh) * 2018-03-27 2018-08-03 东北大学 一种基于文件访问热度的hdfs副本管理方法
CN109032801A (zh) * 2018-07-26 2018-12-18 郑州云海信息技术有限公司 一种请求调度方法、系统及电子设备和存储介质
CN109522289A (zh) * 2018-10-30 2019-03-26 咪咕文化科技有限公司 副本的存放处理方法、装置及计算机存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李强: "云计算及其应用", 《云计算及其应用 *
王敏: "制造业大数据分布式存储管理方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114787791A (zh) * 2019-11-25 2022-07-22 谷歌有限责任公司 规则违规检测
CN113312381A (zh) * 2020-07-31 2021-08-27 阿里巴巴集团控股有限公司 数据处理方法和装置
CN114338725A (zh) * 2021-12-31 2022-04-12 深圳市瑞云科技有限公司 一种提升大规模集群渲染上限的分布式存储调度方法
CN114338725B (zh) * 2021-12-31 2024-01-30 深圳市瑞云科技有限公司 一种提升大规模集群渲染上限的分布式存储调度方法
CN114398371A (zh) * 2022-01-13 2022-04-26 九有技术(深圳)有限公司 数据库集群系统多副本分片方法、装置、设备及存储介质
CN114398371B (zh) * 2022-01-13 2024-06-04 深圳九有数据库有限公司 数据库集群系统多副本分片方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN110209693A (zh) 高并发数据查询方法、装置、系统、设备及可读存储介质
CN102546782B (zh) 一种分布式系统及其数据操作方法
KR102013004B1 (ko) 확장 가능한 환경에서의 동적 로드 밸런싱 기법
JP5244236B2 (ja) 計算機システム、方法、およびプログラム
KR101502896B1 (ko) 맵 리듀스를 이용한 분산 메모리 클러스터 제어 장치 및 방법
US10356150B1 (en) Automated repartitioning of streaming data
US20160140235A1 (en) Real-time distributed in memory search architecture
US10956990B2 (en) Methods and apparatuses for adjusting the distribution of partitioned data
CA2533744C (en) Hierarchical management of the dynamic allocation of resources in a multi-node system
JP6412244B2 (ja) 負荷に基づく動的統合
KR20140122240A (ko) 확장 가능한 환경에서의 파티션 관리 기법
WO2020134364A1 (zh) 一种虚拟机迁移方法、云计算管理平台和存储介质
CN108900626B (zh) 一种云环境下数据存储方法、装置及系统
CN110825704B (zh) 一种读数据方法、写数据方法及服务器
CN103077197A (zh) 一种数据存储方法装置
US20130085895A1 (en) High throughput global order promising system
CN114090580A (zh) 数据处理方法、装置、设备、存储介质及产品
Zhang et al. Aurora: Adaptive block replication in distributed file systems
CN111737168A (zh) 一种缓存系统、缓存处理方法、装置、设备及介质
CN107872517A (zh) 一种数据处理方法及装置
CN105975345A (zh) 一种基于分布式内存的视频帧数据动态均衡存储管理方法
CN110569112B (zh) 日志数据写入方法及对象存储守护装置
CN108132759A (zh) 一种文件系统中管理数据的方法和装置
CN117331755A (zh) 一种向量数据库主从备份和分片策略的高可用系统及方法
Wang et al. Improved intermediate data management for mapreduce frameworks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190906