CN112596895B - 一种sql语义感知的弹性倾斜处理方法及系统 - Google Patents
一种sql语义感知的弹性倾斜处理方法及系统 Download PDFInfo
- Publication number
- CN112596895B CN112596895B CN202011403412.1A CN202011403412A CN112596895B CN 112596895 B CN112596895 B CN 112596895B CN 202011403412 A CN202011403412 A CN 202011403412A CN 112596895 B CN112596895 B CN 112596895B
- Authority
- CN
- China
- Prior art keywords
- fragments
- processing
- slicing
- dividing
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1458—Management of the backup or restore process
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5066—Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5018—Thread allocation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出一种SQL语义感知的弹性倾斜处理方法和系统,针对MapReduce平台由于倾斜分片而导致处理的并行度下降问题,提出了基于细粒度定长子分片的两级弹性并行处理机制,提高处理倾斜分片的并行度,同时减少子分片之间的同步开销;并且针对MapReduce平台由于倾斜分片而导致的容错性能降低问题,提出了子分片级检查点机制,实现倾斜负载的快速故障恢复。
Description
技术领域
本发明涉及数据管理技术领域,并特别涉及一种SQL语义感知的弹性倾斜处理方法及系统。
背景技术
在分布式系统中,任何的分析作业都必须通过平均分配到大量的线程中以达到良好的加速执行效果,而现实工作中平均分配难以实现,因此倾斜(skewness)在所难免。在MapReduce架构中,为了充分利用大量节点的并行计算能力,完成对海量数据的分析与操作,其必要条件是所有分析操作必须在数以万计的线程之间平均分配以达到良好的加速比。而由于大数据分析负载的随机性和用户数据的多样性,以及海量数据通常缺乏足够的统计信息用于了解数据内部的分布规律,因此在MapReduce框架中的倾斜更为普遍且对程序整体执行性能影响重大。
倾斜从来源上可分为计算倾斜(computational skew)和数据分布倾斜(partition skew)两类。计算倾斜的主要来源是不同数据在运行时所需计算时长不一,而数据分布倾斜的主要原因是传统基于key哈希值的数据划分方式无法感知数据集中key本身的不均,导致数据划分后出现数据量明显大于均值的分片——倾斜分片。
倾斜造成的直观后果是执行同类任务的不同作业执行时长不同,从而导致集群中负载分布不均,降低整体计算并行度,导致集群资源的不充分利用甚至应用的崩溃。在相同数据量、相同查询场景下,Spark SQL在倾斜负载JCC-H的执行时间是未倾斜负载TPC-H的3.24倍。
针对倾斜的优化可分为五类,分别是:
1、基于额外统计作业的静态划分式倾斜处理
技术方案:为了在作业运行时获得对作业倾斜情况更精准的分析,并维持原始数据处理程序执行逻辑不变,这类技术将倾斜的识别与处理分成两个阶段在执行实际作业前运行额外的用于获取统计分析信息的作业;根据得到的统计信息,得到一种"非倾斜"的数据划分方式,然后按照此种固定的数据划分为每个分片启动独立作业进行处理,并期待达到消除倾斜的目的。
缺点:1)由于其统计是针对数据量的,因此无法处理计算倾斜;2)额外的统计作业有额外的启动、执行开销。3)一次性得到的划分方式无法针对运行时系统的可用资源实时高效使用,可能造成系统资源的不充分利用。
2、基于在Map阶段进行数据采样的静态划分式倾斜处理
技术方案:在MapReduce框架的开源实现Hadoop中,reducer作业默认在map完成5%后开始工作。一些以处理数据分布倾斜为目标的研究为了避免额外统计作业识别引入过大性能开销,采取了在map阶段内部进行key特征收集、进行对key出现频率的估计。这类作业往往通过延迟reduce阶段启动时间的方式,尽可能多的进行采样来达到更加精准的key分步的预测。
缺点:1)由于其统计是针对数据量的,因此无法处理计算倾斜;2)一次性得到的划分方式无法针对运行时系统的可用资源实时高效使用,可能造成系统资源的不充分利用。
3、基于动态感知的倾斜处理——SkewTune
技术方案:SkewTune提出了在节点算力空闲时每次识别一个倾斜task,并将task未处理数据在多个计算slot间均分的方法处理倾斜。
缺点:由于SkewTune无法感知倾斜task的语义,因此其只能按照key进行分片的再划分,因此无法处理task中单key倾斜的场景。
4、基于聚合算子感知的倾斜处理——AggSkew
技术方案:AggSkew按照分片大小,将处理分片的任务分为segmentTask和stealingTask,segmentTask将大分片细分成确定个数的segment,stealingTask在处理完其分片后,取未完成的segment进行处理。
缺点:1)倾斜处理的适用范围局限在聚合算子;2)倾斜处理的最大并行度即segment数与集群可用资源数无关,无法充分利用集群空闲计算资源。
5、基于连接算子感知的倾斜处理——Spark-adaptive
技术方案:Spark-Adaptive基于广播的思想处理join算子的倾斜——在识别倾斜partition后,Spark-adaptive将参与join的一侧partition进行数据的再划分到多Task执行,并将另一侧partition以广播形式传送到各倾斜处理的task中,以单侧partition的多次复制开销为代价完成join算子的倾斜处理。
缺点:1)处理倾斜的适用范围局限在join算子;2)并行处理join倾斜时不考虑集群可用资源,无法充分利用集群可用资源。
发明内容
本发明的目的是解决倾斜导致的同类任务的不同作业执行时长不同,从而导致集群中负载分布不均,降低整体计算并行度,导致集群资源的不充分利用甚至应用的崩溃问题,从而提出一种SQL语义感知的动态倾斜处理方法,其中SQL是ANSI发布的结构化查询语言标准,用于查询、访问、操作数据库。。
针对现有技术的不足,本发明提出一种SQL语义感知的弹性倾斜处理方法,其特征在于,包括:
步骤1、根据分布式系统的并行框架的并行度以及待处理作业的程序语义,将待处理作业的完整数据集划分为多个分片,并根据分片大小将分片分配至该分布式系统内的计算节点;
步骤2、计算节点为其所分配的分片赋予工作线程,将分片以定长子分片粒度划分,工作线程以定长子分片为粒度处理其被赋予的分片的子分片,并在处理过程中判断计算节点内是否存在未赋予分片或已完成分片处理的空闲线程,若是,则执行步骤3,否则,执行步骤5;
步骤3、判断该空闲线程所属计算节点内除该空闲线程以外的其它工作线程中是否存在未处理数据量大于第一预设值的分片,若是,则从所有未处理数据量大于第一预设值的分片中选择一个分片A,让该空闲线程与分片A对应的工作线程协同处理该分片A,否则执行步骤4;
步骤4、判断该分布式系统中除该空闲线程所属计算节点外的其余计算节点中是否存在未处理数据量大于第二预设值的分片,若是,则从所有未处理数据量大于第二预计值的分片中选择一个分片B,把该分片B的未处理数据部分切分至该空闲线程所属计算节点,该空闲线程以该定长子分片粒度处理该分片B的部分未处理数据,执行步骤5,否则直接执行步骤5;
步骤5、根据该程序语义集合各工作线程的处理结果,作为该待处理作业的完整数据集的最终处理结果。
所述的SQL语义感知的弹性倾斜处理方法,其特征在于,该并行框架包括:
分片划分表和分片到节点的划分器,该分片划分表用于记录分片数据到节点的划分关系,该划分器负责维护该分片划分表,该分片划分表的每个表项为包括PID、EID和PSIDs的三元组,PID是partition id,用于唯一确定一个分片;EID是executor id,用于唯一确定一个计算节点;PSIDs为包含所有已经被分配的分片文件段。
所述的SQL语义感知的弹性倾斜处理方法,其特征在于,该步骤4包括:
步骤41、该待处理作业的程序语义包括排序Sort语义,各个工作线程的处理结果为按键值顺序排序的子分片处理结果,通过找到各子分片处理结果的N-1个局部划分点,将各工作线程的处理结果划分成等长的N个部分,其中N为用于处理当前分片的线程总数;
步骤42、将局部划分点进行顺序排序,得到中间排序结果,将该中间排序结果中找到N-1个全局划分点,将中间排序结果划分成等长的N个部分,将该N-1个全局划分点对应的N个键值范围划分给各计算节点,由计算节点触发到其他计算节点键值范围的取数据过程,以最终完成各键值范围的归并排序作为分片的排序结果。
所述的SQL语义感知的弹性倾斜处理方法,其特征在于,该步骤4包括:
步骤43、该待处理作业的程序语义包括聚集Aggregate语义,各个工作线程的处理结果为子分片的聚集处理结果,各工作线程分别在内存中维护固定大小的用于记录该聚集处理结果的哈希表,当该分片的数据全部处理完毕时,各工作线程将其哈希表划分成N个哈希片,N为参与该分片处理的工作线程总数;
步骤44、按照各计算节点参与处理的工作线程数,将该N个哈希片划分给各个工作线程,由计算节点触发到其他节点哈希片的取数据过程,并由各工作线程最终完成各哈希片的聚合作为分片的聚集结果。
所述的SQL语义感知的弹性倾斜处理方法,其特征在于,还包括:
步骤6、定期将各计算节点涉及的中间计算数据保存至本地磁盘,当分片处理过程中出现错误需要恢复时,判断出现错误的故障计算节点是否可以恢复,若是,则根据该故障计算节点的本地磁盘中该中间计算数据进行故障恢复,否则对该故障计算节点处理的数据进行分片文件的重新计算。
本发明还提出了一种SQL语义感知的弹性倾斜处理系统,其特征在于,包括:
模块1,用于根据分布式系统的并行框架的并行度以及待处理作业的程序语义,将待处理作业的完整数据集划分为多个分片,并根据分片大小将分片分配至该分布式系统内的计算节点;
模块2,用于计算节点为其所分配的分片赋予工作线程,将分片以定长子分片粒度划分,工作线程以定长子分片为粒度处理其被赋予的分片的子分片,并在处理过程中判断计算节点内是否存在未赋予分片或已完成分片处理的空闲线程,若是,则调用模块3,否则,调用模块5;
模块3,用于判断该空闲线程所属计算节点内除该空闲线程以外的其它工作线程中是否存在未处理数据量大于第一预设值的分片,若是,则从所有未处理数据量大于第一预设值的分片中选择一个分片A,让该空闲线程与分片A对应的工作线程协同处理该分片A,否则调用模块4;从多个未处理数据量大于第一预设值的分片中选择一个分片A的系统,可以是从中选择未处理数据量最大的分片外,或者是从中随机选择一个分片,或者是从中选择第一个大于第一预设值的分片。
模块4,用于判断该分布式系统中除该空闲线程所属计算节点外的其余计算节点中是否存在未处理数据量大于第二预设值的分片,若是,则从所有未处理数据量大于第二预计值的分片中选择一个分片B,把该分片B的未处理数据部分切分至该空闲线程所属计算节点,该空闲线程以该定长子分片粒度处理该分片B的部分未处理数据,调用模块5,否则直接调用模块5;
模块5,用于根据该程序语义集合各工作线程的处理结果,作为该待处理作业的完整数据集的最终处理结果。
所述的SQL语义感知的弹性倾斜处理系统,其特征在于,该并行框架包括:
分片划分表和分片到节点的划分器,该分片划分表用于记录分片数据到节点的划分关系,该划分器负责维护该分片划分表,该分片划分表的每个表项为包括PID、EID和PSIDs的三元组,PID是partition id,用于唯一确定一个分片;EID是executor id,用于唯一确定一个计算节点;PSIDs为包含所有已经被分配的分片文件段。
所述的SQL语义感知的弹性倾斜处理系统,其特征在于,该模块4包括:
该待处理作业的程序语义包括排序Sort语义,各个工作线程的处理结果为按键值顺序排序的子分片处理结果,通过找到各子分片处理结果的N-1个局部划分点,将各工作线程的处理结果划分成等长的N个部分,其中N为用于处理当前分片的线程总数;
将局部划分点进行顺序排序,得到中间排序结果,将该中间排序结果中找到N-1个全局划分点,将中间排序结果划分成等长的N个部分,将该N-1个全局划分点对应的N个键值范围划分给各计算节点,由计算节点触发到其他计算节点键值范围的取数据过程,以最终完成各键值范围的归并排序作为该分片的排序结果。
所述的SQL语义感知的弹性倾斜处理系统,其特征在于,该模块4包括:
该待处理作业的程序语义包括聚集Aggregate语义,各个工作线程的处理结果为子分片的聚集处理结果,各工作线程分别在内存中维护固定大小的用于记录该聚集处理结果的哈希表,当该分片的数据全部处理完毕时,各工作线程将其哈希表划分成N个哈希片,N为参与该分片处理的工作线程总数;
按照各计算节点参与处理的工作线程数,将该N个哈希片划分给各个工作线程,由计算节点触发到其他节点哈希片的取数据过程,并由各工作线程最终完成各哈希片的聚合作为该分片的聚集结果。
所述的SQL语义感知的弹性倾斜处理系统,其特征在于,还包括:
模块6,用于定期将各计算节点涉及的中间计算数据保存至本地磁盘,当分片处理过程中出现错误需要恢复时,判断出现错误的故障计算节点是否可以恢复,若是,则根据该故障计算节点的本地磁盘中该中间计算数据进行故障恢复,否则对该故障计算节点处理的数据进行分片文件的重新计算。
由以上方案可知,本发明提出的MapReduce平台上的SQL动态倾斜处理引擎SrSpark的优点在于:
(1)针对MapReduce平台由于倾斜分片而导致处理的并行度下降问题,提出了基于细粒度定长子分片的两级弹性并行处理机制,提高处理倾斜分片的并行度,同时减少子分片之间的同步开销;(2)针对MapReduce平台由于倾斜分片而导致的容错性能降低问题,提出了子分片级检查点机制,实现倾斜负载的快速故障恢复。并且,基于上述两个技术,在SparkSQL平台上实现了动态倾斜处理引擎SrSpark。评测结果显示,与Spark SQL相比SrSpark在倾斜负载中最大可提升3.57倍执行性能,平均可提升2.23倍执行性能(如附图1所示),在未倾斜负载中SrSpark性能开销仅为4%(如附图2所示)。
附图说明
图1为倾斜负载JCC-H的执行性能示意图;
图2为未倾斜负载TPC-H的执行性能示意图;
图3为本发明执行流程图;
图4为本发明架构图;
图5为将分片按大小均分到各节点的算法示意图;
图6为进程内倾斜分片协同示意图;
图7为进程间倾斜分片协同示意图;
图8为Sort合并流程。
具体实施方式
本发明包括以下关键点:
关键点1:采用基于定长子分片的倾斜分片并行处理机制——将分片以定长子分片粒度划分,工作线程以定长子分片为粒度进行处理;技术效果:各个工作线程负载尽可能均衡,即各线程处理的子分片数量尽量均衡,从而避免倾斜的发生。
关键点2:对于每个分片的处理,使用三类线程,并且线程间通过队列进行通信——将一个分片的处理逻辑划分为读取输入数据,处理输入数据和输出结果三步,同时这三步分别使用不同的线程:读线程、工作线程、写线程,线程间基于队列进行通信;技术效果:可以通过增加工作线程数的方式,动态提升倾斜分片的处理并行度。
关键点3:采用自适应的倾斜分片两级并行处理策略——空闲工作线程优先"窃取"(work stealing)被预分配到同进程(Spark中Executor)分片的未处理子分片——进程内并行;当Executor整个空闲且作业仍有未完成分片时,在评估窃取加速和协同开销后认为仍有性能优势时,将分片的执行提升为全局执行——进程间并行;技术效果:根据负载自动选择倾斜处理策略,充分利用集群可用资源的同时降低倾斜引入的同步开销。
关键点4:采用SQL语义感知的结果合并技术——根据不同算子,引入特定的合并流程,保证合并流程语义正确前提下,尽可能对合并过程本身也进行并行处理;技术效果——完成常用SQL算子的倾斜分片聚合,使得SQL的连接、聚合、排序等算子在倾斜情况下仍能高效并行。
关键点5:采用基于检查点机制的快速倾斜分片故障恢复——针对倾斜分片,在处理过程中阶段性进行中间结果的持久化;技术效果:保证在出现倾斜分片执行故障时可以快速恢复,继续正常的执行流程。
为让本发明的上述特征和效果能阐述的更明确易懂,下文特举实施例,并配合说明书附图作详细说明如下。
为了解决MapReduce框架中基于变长分片执行导致的作业倾斜问题,本发明提出了基于细粒度计算和工作窃取的弹性倾斜处理框架SrSpark,其解决倾斜的思路为:
1.沿用MapReduce的分片粒度,并将分片预划分给节点,尽力保证节点间负载均衡。
2.将变长分片划分为多个定长子分片,并以子分片粒度做执行,尽力避免执行粒度上的倾斜出现。
3.倾斜分片的自适应并行处理策略:优先进行倾斜分片的进程内并行,其次考虑倾斜分片的进程间并行。
4.在倾斜分片并行执行后引入算子感知的合并机制,将倾斜处理的能力扩展到整个SQL分析应用。
5.对倾斜分片做基于检查点机制的亚分片级容错,提升倾斜处理在故障发生时的执行性能。
图3展示了SrSpark的执行流程,图示的集群有两个节点,每个节点内可用的工作线程为2个。其执行流程如下:
1.SrSpark首先按照原始分布式系统的并行框架Spark的程序语义与并行度将完整数据集划分为三个分片(P1、P2、P3),并根据分片大小将分片预分配给两个节点。由于P1远大于P2、P3,因此节点1被分配到了P1一个分片,节点2被分配了P2、P3两个分片。
2.进入执行阶段后,由于数据原始只有3个分片,P1被首先赋予了节点1的工作线程1,因此出现节点1工作线程2的暂时空闲,因此节点1向Driver请求为工作线程2分配任务;与此同时,节点2的工作线程1被分配处理分片P2,节点2的工作线程2被分配处理分片P3。
3.Driver在观察了P1的剩余数据量后,命节点1的工作线程2协同处理P1的子分片;与此同时,节点2上的工作线程1继续处理其被分配的分片P2,节点2的工作线程2完成了P3最后一个子分片的处理,因此通过节点2向Driver请求为其分配任务。
4.Driver在考察了分片1、分片2的处理进度后,决定命节点2协同处理分片P1,因此将P1一部分未被读取的文件段分配节点2,节点2上的读线程将文件段切分成子分片,交由其上的工作线程2进行处理;与此同时节点2上的工作线程1继续执行其被分配的分片P2。
实例1:SrSpark在SparkSQL中的实现
为了实现倾斜分片的弹性处理,SrSpark基于原始Spark架构引入了三个额外的模块,如图4所示:
1.分片划分表(Assignment Table)和分片到节点的划分器(PartitionAssigner)——分片划分表记录分片数据到节点的划分关系,划分器负责维护此表。为了表达分片数据到节点的划分关系,同时能表达倾斜分片在进程间的并行,划分表的每个表项是一个(PID,EID,PSIDs)的三元组。PID是partition id,唯一确定一个分片;EID为executor id,唯一确定一个节点;PSIDs包含所有已经被分配的分片文件段(partitionsplit,PS)。当一个分片首次被分配到一个节点做执行时,划分器在表中记录(PID,EID,ALL)的三元组(在图4中的Assignment Table第三行(2,3,ALL)),代表分片的所有文件段均被预分配给节点执行;当需要引入倾斜分片的进程间协作时,划分器确定已经被原始节点处理的分片文件段,替换掉代表全部分配的ALL项,此后,倾斜分片的多个处理节点根据划分器模块协同读取的分片文件段,保证分片处理的不重不漏(在图4中的Assignment Table第一行(1,1,1、2、3)和第二行(1,2,4、5、6)表示分片1同时被节点1、2处理,其分别分配的分片文件段是1、2、3和4、5、6))。
2.倾斜处理协调器(Skew Coordinator)和倾斜处理工作模块(Skew Worker)——当分片作为倾斜分片被识别、其数据由多线程处理时,由于需要考虑多线程结果的协调(例如,对分片的排序在并行情景下需各线程独立排序,而后进行多个局部序的合并),这时skew coordinator用以处理多线程协调通信。
3.检查点协调器(Checkpoint Coordinator)和检查点工作模块(Checkpointworker)——SrSpark引入了倾斜分片的检查点机制以实现倾斜分片的细粒度容错。Checkpoint Coordinator在分片被多线程处理时启动,并以可配置的频率触发checkpoint的动作。
实例2:数据到工作线程的分配
解决倾斜的最基本思想在于提升倾斜分片的处理并行度,使得倾斜分片可由多线程协作处理,从而达到倾斜分片加速处理的目的。因此,SrSpark对Spark原始的分片进行了进一步细分,将分片按照固定粒度切分为定长的子分片(sub-partition),并以子分片的粒度进行数据处理。通过这样的数据划分,多个处理线程可以基于子分片粒度协同处理来自同一倾斜分片的数据,而后SrSpark会引入额外的合并过程,基于原始的分片处理语义,将多个子分片的结果进行合并。
进一步地,对于需要引入合并过程的倾斜分片处理来说,合并过程的开销对倾斜处理的性能起关键性作用。当处理倾斜分片的线程均处于同一进程内部时,合并过程无须引入磁盘和网络开销,只需要依赖进程内的共享数据结构即可完成;而当处理倾斜分片的线程处于不同进程、不同节点时,合并过程本身会引入数据在多进程间shuffle局部处理结果,相比于进程内协作,开销增大。因此,在将分片分配到节点时,要考虑各节点负载的近似均衡,以避免倾斜分片在个别节点的聚集导致合并过程的过大协同开销。另外,于非倾斜分片的处理,我们需要保证其与原始Spark的分片处理流程类似,以保证对非倾斜负载/分片的高效处理。基于以上的分析,我们提出了SrSpark中数据到节点、到工作线程的两点分配原则:
平衡各节点的数据负载,尽可能减少数据在节点上的聚集,以减小后续节点间协作的比例。
为工作线程优先分配预划分给该节点的未处理分片,在维持各节点数据负载平衡的前提下,尽量减少线程间协同的出现概率。
(1)分片到节点的分配
为了保证各节点的初始数据负载类似,最大可能减少后续节点间倾斜分片协作的比例。SrSpark设计了将分片划分到节点的算法4。其基本思想为:根据各分片总的大小计算出节点平均数据量,并采用回溯思想尝试将分片放入表示节点的n个桶中,找到满足桶间数据均衡的一种划分。
如图5所示,算法1展示了将分片按大小预分配到n个Executor上的方式。算法首先计算出每个Executor的平均分片大小(1-2行),并将分片按照大小进行排序(3行),并从最大分片开始启动对一种划分方式的查找(6行)。Search方法利用回溯思想,取出当前分片(12行),尝试将依次其放入各个分组(16-29行),若放入某分组成功,则继续下一分片的放置。直至完成所有分片的分组(9-11行)。通过按照分片大小平均分组的方式,完成分片到Executor的预划分,从而减少倾斜分片协同过程中过热节点的出现。
(2)工作线程获取子分片
SrSpark为工作线程分配分片时遵循最小化协同开销原则:
保证节点间负载均衡——优先调度分配给该节点的分片进行处理。
保证非倾斜分片无协同开销——当存在未处理分片时,优先调度未处理分片的子分片进行处理。
最小化倾斜分片的协同开销——当不存在未处理分片时,优先调度该节点上正在处理分片的子分片进行处理。
因此,当SrSpark有处理能力闲置时,Executor向Driver发出分片获取申请,在Driver的分片划分器(partition assigner)上,遵循以下的分片分配优先级进行分片分配:
本组未处理分片>它组未处理分片>本组进行中分片>它组进行中分片。
为了避免倾斜分片在进程间并行时因为分片数据被多个进程重复读取而引入额外的shuffle开销,SrSpark中reader线程对分片的读是以分片文件段PS为粒度的。每次executor读完被分配到的分片文件段后,再一次性向Driver的划分器模块(partitionassigner)申请数个PS,从而保证倾斜分片的高效并行处理。
实例3:倾斜分片的进程内协同
当工作线程被分配到执行同一节点内的倾斜分片时,Executor首先需要将该分片的input子分片队列升权为MPMCQ(多生产者多消费者队列)。首先,Executor将input子分片队列加锁,使原先的工作线程无法继续从原始队列中获取子分片,随后将当前input子分片队列中的所有子分片加入到一个可由多消费者多生产者共享的队列中。之后通过改变原始reader线程和原始worker线程所使用队列,完成原始读取、工作流程的继续进行。
然后由worker线程共同从队列里取子分片进行处理。此时,分片的Executor进程内协同如图6所示。多个worker thread协同处理同一个分片的input子分片队列,随着worker空闲线程的增多,参与该分片处理的worker thread数量逐步增加。
此时input子分片队列变成了多生产者、多消费者的使用模式,为了最小化此时的协同开销,我们需要采用细粒度锁的方式保证队列操作的原子性——一把队首的锁,协同多个reader向队列中插入子分片,一把队尾锁,协同多个worker thread从队列中读取子分片,由于队列元素的提取频率较低,因此我们还是可以实现多线程协同中较小的同步开销。在进程内协同中,我们采用了MPMCQ做子分片队列的实现。
实例4:倾斜分片的进程间协同
SrSpark在Driver端维护了一张assignment table,以PS的粒度将input段分配给不同的executor。图4中的Assignment Table第三行(2,3,ALL)即代表将partition id(PID)为2的分片分配给Executor id(EID)为3的executor,默认将分片的所有PS全部预分配给executor 3(图中用ALL表示预分配的结果)。
为了避免重复shuffle的出现——即分片文件段(PS)已经被exeuctor1上的reader线程读取,但仍未被处理,此时为了倾斜分片均衡又将其分配到了新的节点,如果出现这样的情况,则新executor需要重复读取这个PS的数据,造成shuffle的浪费,SrSpark在分片进入进程间协作模式后,每次分配3个PS给一个executor,并在driver上维护该分片未处理的PSQ,通过这样的方式不引入过多协同开销的同时,保证数据读取的不重不漏。
因此,新可用的executor首先从driver的PSQ的上取3个PS,然后将这些PS交由reader线程,最终在本executor的空闲worker thread上协同处理,其协作方式如图7所示。从逻辑上,多个executor的对于同一个分片的多个输入子分片队列组成了一个全局的输入子分片队列。
实例5:SQL语义感知的合并——Sort
当一个分片被多个计算节点上的线程协同处理时,需要把各个工作线程的排序结果进行合并后,才能得到该分片的排序结果。Sort并行合并的关键在于找到分区范围rangepartition的划分点,并保证各个range上记录数近似相等。Sort的并行合并流程如下:
1.N个参与倾斜分片执行的线程分别在本地的局部序中找到N-1个划分点,将分片的局部结果按照记录数划分成等长的N个部分。
2.将所有N个线程中总共的N*(N-1)传送到Driver端,其作为作业的执行流程控制线程位于首先发起该作业的计算节点,在Driver中对所有划分点进行顺序排列,并再次在这个序中找到将划分点队列等分为N份的N-1个全局划分点。
3.按照各个节点参与倾斜分片协作的线程数,将这N个keyrange划分给各个节点。由节点触发到其他节点keyrange的取数据过程,并最终完成各keyrange的归并排序。
Sort的并行合并流程如图8所示:每个倾斜处理线程首先利用其可用内存进行局部排序并计算出局部划分点(local separators),当倾斜分片被完全处理之后,各线程的划分点被汇总到Driver中,进行排序并计算全局划分点(global separators),并启动一系列合并线程进行全局划分点下各段的并行合并
实例6:SQL语义感知的合并——Aggregate
当一个分片被多个计算节点上的线程协同处理时,需要把各个工作线的聚集结果进行合并后,才能得到该分片的聚集结果。Aggregate操作的并行、合并流程如下:
1.各倾斜处理线程分别在内存中维护固定大小的hashtable(hashtable大小按照线程平均可用CPU cache进行设置)。当CPU缓存驻留的hashtable满时,worker thread将hashtable在内存中缓存,并启动新的hashtable进行后续聚合更新。
2.当所有数据数据被处理完毕后,driver接到通知,并命令各线程将其上的hashtable都划分成N个hash partition(N为参与并行aggregate的线程总数)。
3.按照各个节点参与倾斜分片协作的线程数,将这N个hashpartition划分给各个线程。由节点触发到其他节点hash partition的取数据过程,并由各线程最终完成各hashpartition的聚合。
实例7:倾斜分片的细粒度容错
在SrSpark中,本发明设计了基于检查点(checkpoint)机制的、亚分片级故障恢复机制。
检查点是由Driver针对倾斜分片启动的定时任务,在分片第一次被分配做并行执行时,Driver启动针对该分片的定时检查点任务,其中任务的调度延迟是用户可配置的时间间隔。并且在一次检查点执行成功后,再次启动对下一次检查点的定时任务。
当倾斜分片的参与者收到检查点通知时,将其状态持久化到磁盘,并将完成状态汇报给Driver。需要持久化的状态信息与倾斜分片正在进行的处理任务直接相关。例如,对于sort作业,检查点的触发需要工作线程将其内存中缓存的记录进行排序,并将排序结果spill到磁盘,并记录spill文件的信息;对于Aggregate作业,检查点的触发需要工作线程将内存内的所有哈希表分别spill到磁盘,并记录spill文件的信息;
对倾斜分片处理的参与者,各个组件被通知需要进行checkpoint时需要进行的操作及汇报的状态分别为:
Driver:记录分片文件段PS到各Executor的分配关系。
读线程:完成当前子分片的读取,并记录在此文件段中的偏移量。
工作线程:继续以子分片为粒度读取输入队列,直至输入队列为空。这时进行其内存状态的持久化,并将持久化的文件信息传递给Driver。
写线程:将输出队列中的子分片持久化到磁盘,直至输出队列为空。
当Driver收到所有参与者的完成通知时,则认为此次检查点成功,并可作为故障恢复的重启点。
故障恢复
当倾斜分片处理过程中出现错误需要恢复时,对应出现故障节点的可用性,SrSpark采用了两种恢复策略。
当节点不可用时,我们默认其持久化的状态信息是不可访问的,因此SrSpark将分配给该节点的所有分片文件段PS再次放回到未处理的分片文件段队列PSQ中,从而完成对此节点故障的恢复——即识别出故障节点后,对故障节点处理的数据进行分片文件段级的重计算。
当Executor进程故障退出时,SrSpark通过在同节点重启Executor进行故障恢复。新启动Executor上的skew worker首先从Driver的skew coordinator获取状态文件的位置,并验证状态文件的完整性,若验证成功则表示可以从检查点中进行故障恢复,若失败则需要转入节点不可用的逻辑进行数据重计算。对于状态文件验证成功的情况,worker的读线程从checkpoint中记录的文件段的偏移量位置开始读入数据,工作线程和写线程均不需要进行状态恢复。通过这样的方式,SrSpark重做了自检查点后,故障发生前所有处理的数据,从而完成了细粒度的故障恢复。
以下为与上述方法实施例对应的系统实施例,本实施方式可与上述实施方式互相配合实施。上述实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在上述实施方式中。
本发明还提出了一种SQL语义感知的弹性倾斜处理系统,其特征在于,包括:
模块1,用于根据分布式系统的并行框架的并行度以及待处理作业的程序语义,将待处理作业的完整数据集划分为多个分片,并根据分片大小将分片分配至该分布式系统内的计算节点;
模块2,用于计算节点为其所分配的分片赋予工作线程,将分片以定长子分片粒度划分,工作线程以定长子分片为粒度处理其被赋予的分片的子分片,并在处理过程中判断计算节点内是否存在未赋予分片或已完成分片处理的空闲线程,若是,则调用模块3,否则,调用模块5;
模块3,用于判断该空闲线程所属计算节点内除该空闲线程以外的其它工作线程中是否存在未处理数据量大于第一预设值的分片,若是,则从所有未处理数据量大于第一预设值的分片中选择一个分片A,让该空闲线程与分片A对应的工作线程协同处理该分片A,否则调用模块4;从多个未处理数据量大于第一预设值的分片中选择一个分片A的系统,可以是从中选择未处理数据量最大的分片外,或者是从中随机选择一个分片,或者是从中选择第一个大于第一预设值的分片。
模块4,用于判断该分布式系统中除该空闲线程所属计算节点外的其余计算节点中是否存在未处理数据量大于第二预设值的分片,若是,则从所有未处理数据量大于第二预计值的分片中选择一个分片B,把该分片B的未处理数据部分切分至该空闲线程所属计算节点,该空闲线程以该定长子分片粒度处理该分片B的部分未处理数据,调用模块5,否则直接调用模块5;
模块5,用于根据该程序语义集合各工作线程的处理结果,作为该待处理作业的完整数据集的最终处理结果。
所述的SQL语义感知的弹性倾斜处理系统,其特征在于,该并行框架包括:
分片划分表和分片到节点的划分器,该分片划分表用于记录分片数据到节点的划分关系,该划分器负责维护该分片划分表,该分片划分表的每个表项为包括PID、EID和PSIDs的三元组,PID是partition id,用于唯一确定一个分片;EID是executor id,用于唯一确定一个计算节点;PSIDs为包含所有已经被分配的分片文件段。
所述的SQL语义感知的弹性倾斜处理系统,其特征在于,该模块4包括:
该待处理作业的程序语义包括排序Sort语义,各个工作线程的处理结果为按键值顺序排序的子分片处理结果,通过找到各子分片处理结果的N-1个局部划分点,将各工作线程的处理结果划分成等长的N个部分,其中N为用于处理当前分片的线程总数;
将局部划分点进行顺序排序,得到中间排序结果,将该中间排序结果中找到N-1个全局划分点,将中间排序结果划分成等长的N个部分,将该N-1个全局划分点对应的N个键值范围划分给各计算节点,由计算节点触发到其他计算节点键值范围的取数据过程,以最终完成各键值范围的归并排序作为该分片的排序结果。
所述的SQL语义感知的弹性倾斜处理系统,其特征在于,该模块4包括:
该待处理作业的程序语义包括聚集Aggregate语义,各个工作线程的处理结果为子分片的聚集处理结果,各工作线程分别在内存中维护固定大小的用于记录该聚集处理结果的哈希表,当该分片的数据全部处理完毕时,各工作线程将其哈希表划分成N个哈希片,N为参与该分片处理的工作线程总数;
按照各计算节点参与处理的工作线程数,将该N个哈希片划分给各个工作线程,由计算节点触发到其他节点哈希片的取数据过程,并由各工作线程最终完成各哈希片的聚合作为该分片的聚集结果。
所述的SQL语义感知的弹性倾斜处理系统,其特征在于,还包括:
模块6,用于定期将各计算节点涉及的中间计算数据保存至本地磁盘,当分片处理过程中出现错误需要恢复时,判断出现错误的故障计算节点是否可以恢复,若是,则根据该故障计算节点的本地磁盘中该中间计算数据进行故障恢复,否则对该故障计算节点处理的数据进行分片文件的重新计算。
Claims (6)
1.一种SQL语义感知的弹性倾斜处理方法,其特征在于,包括:
步骤1、根据分布式系统的并行框架的并行度以及待处理作业的程序语义,将待处理作业的完整数据集划分为多个分片,并根据分片大小将分片分配至该分布式系统内的计算节点;
步骤2、计算节点为其所分配的分片赋予工作线程,将分片以定长子分片粒度划分,工作线程以定长子分片为粒度处理其被赋予的分片的子分片,并在处理过程中判断计算节点内是否存在未赋予分片或已完成分片处理的空闲线程,若是,则执行步骤3,否则,执行步骤5;
步骤3、判断该空闲线程所属计算节点内除该空闲线程以外的其它工作线程中是否存在未处理数据量大于第一预设值的分片,若是,则从所有未处理数据量大于第一预设值的分片中选择一个分片A,让该空闲线程与分片A对应的工作线程协同处理该分片A,否则执行步骤4;
步骤4、判断该分布式系统中除该空闲线程所属计算节点外的其余计算节点中是否存在未处理数据量大于第二预设值的分片,若是,则从所有未处理数据量大于第二预设值的分片中选择一个分片B,把该分片B的未处理数据部分切分至该空闲线程所属计算节点,该空闲线程以该定长子分片粒度处理该分片B的部分未处理数据,执行步骤5,否则直接执行步骤5;
步骤5、根据该程序语义集合各工作线程的处理结果,作为该待处理作业的完整数据集的最终处理结果;
步骤6、定期将各计算节点涉及的中间计算数据保存至本地磁盘,当分片处理过程中出现错误需要恢复时,判断出现错误的故障计算节点是否可以恢复,若是,则根据该故障计算节点的本地磁盘中该中间计算数据进行故障恢复,否则对该故障计算节点处理的数据进行分片文件的重新计算;
其中该并行框架包括:
分片划分表和分片到节点的划分器,该分片划分表用于记录分片数据到节点的划分关系,该划分器负责维护该分片划分表,该分片划分表的每个表项为包括PID、EID和PSIDs的三元组,PID是partition id,用于唯一确定一个分片;EID是executor id,用于唯一确定一个计算节点;PSIDs为包含所有已经被分配的分片文件段。
2.如权利要求1所述的SQL语义感知的弹性倾斜处理方法,其特征在于,该步骤4包括:
步骤41、该待处理作业的程序语义包括排序Sort语义,各个工作线程的处理结果为按键值顺序排序的子分片处理结果,通过找到各子分片处理结果的N-1个局部划分点,将各工作线程的处理结果划分成等长的N个部分,其中N为用于处理当前分片的线程总数;
步骤42、将局部划分点进行顺序排序,得到中间排序结果,在该中间排序结果中找到N-1个全局划分点,将中间排序结果划分成等长的N个部分,将该N-1个全局划分点对应的N个键值范围划分给各计算节点,由计算节点触发到其他计算节点键值范围的取数据过程,以最终完成各键值范围的归并排序作为分片的排序结果。
3.如权利要求1所述的SQL语义感知的弹性倾斜处理方法,其特征在于,该步骤4包括:
步骤43、该待处理作业的程序语义包括聚集Aggregate语义,各个工作线程的处理结果为子分片的聚集处理结果,各工作线程分别在内存中维护固定大小的用于记录该聚集处理结果的哈希表,当该分片B的数据全部处理完毕时,各工作线程将其哈希表划分成 N个哈希片,N为参与该分片B处理的工作线程总数;
步骤44、按照各计算节点参与处理的工作线程数,将该N个哈希片划分给各个工作线程,由计算节点触发到其他节点哈希片的取数据过程,并由各工作线程最终完成各哈希片的聚合作为分片B的聚集结果。
4.一种SQL语义感知的弹性倾斜处理系统,其特征在于,包括:
模块1,用于根据分布式系统的并行框架的并行度以及待处理作业的程序语义,将待处理作业的完整数据集划分为多个分片,并根据分片大小将分片分配至该分布式系统内的计算节点;
模块2,用于计算节点为其所分配的分片赋予工作线程,将分片以定长子分片粒度划分,工作线程以定长子分片为粒度处理其被赋予的分片的子分片,并在处理过程中判断计算节点内是否存在未赋予分片或已完成分片处理的空闲线程,若是,则调用模块3,否则,调用模块5;
模块3,用于判断该空闲线程所属计算节点内除该空闲线程以外的其它工作线程中是否存在未处理数据量大于第一预设值的分片,若是,则从所有未处理数据量大于第一预设值的分片中选择一个分片A,让该空闲线程与分片A对应的工作线程协同处理该分片A,否则调用模块4;
模块4,用于判断该分布式系统中除该空闲线程所属计算节点外的其余计算节点中是否存在未处理数据量大于第二预设值的分片,若是,则从所有未处理数据量大于第二预设值的分片中选择一个分片B,把该分片B的未处理数据部分切分至该空闲线程所属计算节点,该空闲线程以该定长子分片粒度处理该分片B的部分未处理数据,调用模块5,否则直接调用模块5;
模块5,用于根据该程序语义集合各工作线程的处理结果,作为该待处理作业的完整数据集的最终处理结果;
模块6,用于定期将各计算节点涉及的中间计算数据保存至本地磁盘,当分片处理过程中出现错误需要恢复时,判断出现错误的故障计算节点是否可以恢复,若是,则根据该故障计算节点的本地磁盘中该中间计算数据进行故障恢复,否则对该故障计算节点处理的数据进行分片文件的重新计算;
该并行框架包括:
分片划分表和分片到节点的划分器,该分片划分表用于记录分片数据到节点的划分关系,该划分器负责维护该分片划分表,该分片划分表的每个表项为包括PID、EID和PSIDs的三元组,PID是partition id,用于唯一确定一个分片;EID是executor id,用于唯一确定一个计算节点;PSIDs为包含所有已经被分配的分片文件段。
5.如权利要求4所述的SQL语义感知的弹性倾斜处理系统,其特征在于,该模块4包括:
该待处理作业的程序语义包括排序Sort语义,各个工作线程的处理结果为按键值顺序排序的子分片处理结果,通过找到各子分片处理结果的N-1个局部划分点,将各工作线程的处理结果划分成等长的N个部分,其中N为用于处理当前分片的线程总数;
将局部划分点进行顺序排序,得到中间排序结果,在该中间排序结果中找到N-1个全局划分点,将中间排序结果划分成等长的N个部分,将该N-1个全局划分点对应的N个键值范围划分给各计算节点,由计算节点触发到其他计算节点键值范围的取数据过程,以最终完成各键值范围的归并排序作为该分片的排序结果。
6.如权利要求4所述的SQL语义感知的弹性倾斜处理系统,其特征在于,该模块4包括:
该待处理作业的程序语义包括聚集Aggregate语义,各个工作线程的处理结果为子分片的聚集处理结果,各工作线程分别在内存中维护固定大小的用于记录该聚集处理结果的哈希表,当该分片B的数据全部处理完毕时,各工作线程将其哈希表划分成 N个哈希片,N为参与该分片B处理的工作线程总数;
按照各计算节点参与处理的工作线程数,将该N个哈希片划分给各个工作线程,由计算节点触发到其他节点哈希片的取数据过程,并由各工作线程最终完成各哈希片的聚合作为该分片B的聚集结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011403412.1A CN112596895B (zh) | 2020-12-02 | 2020-12-02 | 一种sql语义感知的弹性倾斜处理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011403412.1A CN112596895B (zh) | 2020-12-02 | 2020-12-02 | 一种sql语义感知的弹性倾斜处理方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112596895A CN112596895A (zh) | 2021-04-02 |
CN112596895B true CN112596895B (zh) | 2023-09-12 |
Family
ID=75188147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011403412.1A Active CN112596895B (zh) | 2020-12-02 | 2020-12-02 | 一种sql语义感知的弹性倾斜处理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112596895B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114138494B (zh) * | 2021-12-06 | 2024-05-10 | 昆明理工大学 | 一种结合节点计算能力的负载均衡方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008001296A2 (en) * | 2006-06-30 | 2008-01-03 | Koninklijke Philips Electronics N.V. | A device for retrieving information and a method of compensating a tilt during said retrieving |
CN102255926A (zh) * | 2010-05-17 | 2011-11-23 | 中国移动通信集团公司 | MapReduce系统中的任务分配方法、系统及装置 |
WO2015131721A1 (zh) * | 2014-03-06 | 2015-09-11 | 华为技术有限公司 | 流计算系统中的数据处理方法、控制节点及流计算系统 |
CN105871603A (zh) * | 2016-03-29 | 2016-08-17 | 中国科学院软件研究所 | 一种基于内存数据网格的实时流式数据处理失效恢复系统及方法 |
CN106681823A (zh) * | 2015-11-05 | 2017-05-17 | 田文洪 | 一种处理MapReduce数据倾斜的负载均衡方法 |
-
2020
- 2020-12-02 CN CN202011403412.1A patent/CN112596895B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008001296A2 (en) * | 2006-06-30 | 2008-01-03 | Koninklijke Philips Electronics N.V. | A device for retrieving information and a method of compensating a tilt during said retrieving |
CN102255926A (zh) * | 2010-05-17 | 2011-11-23 | 中国移动通信集团公司 | MapReduce系统中的任务分配方法、系统及装置 |
WO2015131721A1 (zh) * | 2014-03-06 | 2015-09-11 | 华为技术有限公司 | 流计算系统中的数据处理方法、控制节点及流计算系统 |
CN106681823A (zh) * | 2015-11-05 | 2017-05-17 | 田文洪 | 一种处理MapReduce数据倾斜的负载均衡方法 |
CN105871603A (zh) * | 2016-03-29 | 2016-08-17 | 中国科学院软件研究所 | 一种基于内存数据网格的实时流式数据处理失效恢复系统及方法 |
Non-Patent Citations (1)
Title |
---|
应对倾斜数据流在线连接方法;王春凯;孟小峰;;软件学报(第03期);869-882 * |
Also Published As
Publication number | Publication date |
---|---|
CN112596895A (zh) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9536014B1 (en) | Parallel processing of data | |
EP2259184B1 (en) | Multi-core scheduling for parallel queries | |
Ding et al. | Improving optimistic concurrency control through transaction batching and operation reordering | |
Nykiel et al. | MRShare: sharing across multiple queries in MapReduce | |
US6986140B2 (en) | Method for determining idle processor load balancing in a multiple processors system | |
US6735769B1 (en) | Apparatus and method for initial load balancing in a multiple run queue system | |
US7454420B2 (en) | Data sorting method and system | |
CN113504985B (zh) | 一种任务处理方法以及网络设备 | |
US8051422B2 (en) | Resource assignment method for query partioning based on processing cost of each partition | |
US20020026438A1 (en) | Estimation of column cardinality in a partitioned relational database | |
CN111367630A (zh) | 一种基于云计算的多用户多优先级的分布式协同处理方法 | |
CN113342886A (zh) | 数据交换方法和装置 | |
US20070226747A1 (en) | Method of task execution environment switch in multitask system | |
CN111651864B (zh) | 一种事件集中发射式多异构时间队列优化仿真执行方法及系统 | |
CN112596895B (zh) | 一种sql语义感知的弹性倾斜处理方法及系统 | |
Wolf et al. | On the optimization of schedules for MapReduce workloads in the presence of shared scans | |
CN110231977B (zh) | 数据库的处理方法、装置、存储介质及电子装置 | |
US20030110204A1 (en) | Apparatus and method for dispatching fixed priority threads using a global run queue in a multiple run queue system | |
US11366799B2 (en) | Data locking method based on alternating row and column locks | |
US11392388B2 (en) | System and method for dynamic determination of a number of parallel threads for a request | |
CN110502337B (zh) | 针对Hadoop MapReduce中混洗阶段的优化系统 | |
Nykiel et al. | Sharing across multiple MapReduce jobs | |
Lei et al. | Redoop: Supporting Recurring Queries in Hadoop. | |
CN114896295A (zh) | 大数据场景下的数据脱敏方法、脱敏装置及脱敏系统 | |
CN113722099A (zh) | 一种千万级数据分片处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |