CN112532464B - 一种跨多数据中心的数据分布式处理加速方法及其系统 - Google Patents
一种跨多数据中心的数据分布式处理加速方法及其系统 Download PDFInfo
- Publication number
- CN112532464B CN112532464B CN202110175768.2A CN202110175768A CN112532464B CN 112532464 B CN112532464 B CN 112532464B CN 202110175768 A CN202110175768 A CN 202110175768A CN 112532464 B CN112532464 B CN 112532464B
- Authority
- CN
- China
- Prior art keywords
- data
- time
- site
- map
- sites
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 126
- 238000012545 processing Methods 0.000 title claims abstract description 33
- 230000001133 acceleration Effects 0.000 title claims abstract description 17
- 230000004044 response Effects 0.000 claims abstract description 159
- 230000008569 process Effects 0.000 claims abstract description 59
- 238000004364 calculation method Methods 0.000 claims abstract description 56
- 230000005540 biological transmission Effects 0.000 claims abstract description 46
- 238000012546 transfer Methods 0.000 claims abstract description 13
- 238000007405 data analysis Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012163 sequencing technique Methods 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 62
- 230000009467 reduction Effects 0.000 description 28
- 230000007423 decrease Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 13
- 229910052741 iridium Inorganic materials 0.000 description 13
- GKOZUEZYRPOHIO-UHFFFAOYSA-N iridium atom Chemical compound [Ir] GKOZUEZYRPOHIO-UHFFFAOYSA-N 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 230000006872 improvement Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 241001272567 Hominoidea Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- PFFIDZXUXFLSSR-UHFFFAOYSA-N 1-methyl-N-[2-(4-methylpentan-2-yl)-3-thienyl]-3-(trifluoromethyl)pyrazole-4-carboxamide Chemical compound S1C=CC(NC(=O)C=2C(=NN(C)C=2)C(F)(F)F)=C1C(C)CC(C)C PFFIDZXUXFLSSR-UHFFFAOYSA-N 0.000 description 1
- 241000721047 Danaus plexippus Species 0.000 description 1
- 241000764238 Isis Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000003012 network analysis Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明提出了一种跨多数据中心的数据分布式处理加速方法。本方法中每个站点只要获得所需的输入数据就能够执行对应的计算任务。每个站点的输入数据加载、map计算、shuffle传递和reduce计算过程都不需要等待其他的站点的前一个过程都完成对应的操作。同时,本发明提供了精确的计算时间估计,并使得本发明方法适应动态的广域网带宽来提升SDTP的实用性,能够极大地减少作业的响应时间。本发明还提出了一种跨多数据中心的数据分布式处理加速系统,对应于上述方法,能够充分的使用跨区域分布站点的网络和计算资源,从而有效地分析跨区域分布的数据而不必等待前一阶段的瓶颈站点完成对应的数据传输或计算任务。
Description
技术领域
本发明涉及数据分析领域,具体公开了一种跨多数据中心的数据分布式处理加速方法及其系统。
背景技术
谷歌,亚马逊和阿里巴巴等云提供商已经在全球部署了数据中心,以提供即时服务。这些服务在全球范围内生成大量数据,包括交易数据,用户日志和性能日志等。挖掘这些地理分布的数据(也称为广域分析)对于商业建议,匿名检测,性能升级和系统维护等至关重要。通常实施诸如Map-Reduce的分布式计算框架来挖掘此类海量数据集。这种计算方式的主要挑战是地理分布站点之间硬件资源的异构性,主要包括计算,上行链路带宽和下行链路带宽。最大的在线服务提供商的计算能力可能比普通在线服务提供商大两个数量级。此外,在Amazon EC2站点之间的WAN带宽中,站点之间的带宽比站点内的带宽小15倍,而且不同站点之间的广域网带宽达到12倍的差距。。地理分布站点之间的数据量的异构性也很高,数据量的异构性会严重影响广域网数据分析的执行。作业响应时间是分析地理分布数据的关键指标,该指标主要由作业在每个阶段的瓶颈站点的完成时间决定。但是,硬件资源的异构性和地理分布站点之间数据量的多样性严重影响了作业完成时间。因此,优化此度量标准具有挑战性,因为必须考虑多个因素,包括站点之间的WAN链路带宽,WAN链路的成本,每个站点中的计算资源和数据分布等。
Iridium 考虑到WAN的异构性,旨在通过优化reduce任务来最小化跨区域分析作业的响应时间。Flutter是考虑到WAN链路的异构性和WAN带宽成本,提出了一种新的任务调度算法,用于减少大数据处理作业的响应时间和网络成本。Tetrium 在设计了map和reduce的任务放置策略时共同考虑了计算和网络资源的异构性。 Yugong提出了一种新颖的数据和作业放置策略以最小化跨DC带宽的使用并减少查询等待时间。Liu等人主动汇总map任务的输出数据,并避免在shuffle阶段重复进行数据传输,以减少作业响应时间。以上方法通过各种方式减少作业响应时间,然而这些方法中大量的WAN链路和计算资源在作业执行期间却任然处于空闲状态。此外,这些方法都忽略了可用WAN带宽的动态特性以及并行度的影响。
除此之外,CLARIENT着眼于地理分布的SQL查询,包括支持WAN的查询优化器,可以实现多查询网络感知的计划选择和任务放置,以确保较低的查询延迟。WAanalytics和Geode试图减少跨地理分布的数据中心的带宽使用,并减少SQL查询请求的延迟。Lube实时监视地理分布的数据分析查询,并在运行时检测并缓解潜在的瓶颈(例如带宽不足),以减少查询响应时间。Gaia为跨站点学习任务提供了一种机器学习同步模型,它动态消除了站点之间的对结果影响不大的通信,从而加快了机器学习作业的执行速度。tom等人引入了预测性条约来预测系统状态的演变,该方法可以减少地理分布式应用程序的协调并提高应用程序性能。Monarch 优化了图数据分析并行系统的迭代处理方式,以有效地执行跨区域的图数据分析。Liu等人提出了一种分层同步并行模式,可以降低广域网带宽的使用,加快收敛速度,并降低广域图分析的WAN成本。G-Cut通过最小化DC间数据传输时间来优化图形处理作业的性能。HPS+提供了一种新的资源分配算法以节省传输的数据量并减少运行周期。但是,这些方法主要集中在广域网机器学习、SQL分析、天文应用和某些特殊领域。因此,它们不适用于诸如MapReduce之类的常规大数据处理框架。Turbo调整地理分布的SQL查询的查询执行计划,以响应跨数据中心的运行时资源变化。AWStream自动学习准确的配置文件,以对应用程序的准确性和带宽消耗之间的关系进行建模。通过调整应用程序数据速率以匹配可用带宽,同时最大程度地实现精确性。但是,它仅专注于广域网流数据分析,不适用于其他跨区域的数据分析作业。此外,这些方法没有考虑并行度和作业响应时间之间的关系。Decima使用强化学习和神经网络来学习特定工作负载的调度算法,并为每个作业设置有效的并行度,以最小化平均作业响应时间。但是,它仅尝试优化单个数据中心的集群中的平均作业响应时间。
发明内容
本发明目的在提供一种跨多数据中心的数据分布式处理加速方法及其系统,以解决现有技术中存在的未充分考虑站点之间异构性的技术缺陷。
任务调度策略以严格的顺序方式执行map-reduce任务,这可能会使跨地理位置分布的站点资源闲置并导致不必要的等待时间。图1和2给出了一个具有三个位置的示例。图1详细说明了基本设置。假设给定一个作业,作业包含一个reduce阶段,该阶段的每个任务可以处理100 MB的数据,并且处理每个任务所需的时间为2 s。最初,站点1、2和3分别包含10、40和50 GB的本地数据。它们具有不相等数量的计算实例,一对站点之间的链路带宽表示为一个二元组(上传带宽,下载带宽);例如(1,5)。使用这种参数设置,Tetrium生成图2(a)所示的任务放置策略。在此放置解决方案中,站点2和3需要分别将26 GB和22 GB的数据传输到站点1。在此传输期间,站点2和3的计算和下载链路始终保持空闲,并不需要从其他站点获取输入数据。只有在完成所有传输后,站点才能开始数据计算。在此示例中,Tetrium总共花费56 s。
如图2(b)所示,通过平衡和并行化数据传输与数据处理,可以改善广域网数据分析的现有工作。在此解决方案中,站点2和站点3向站点1传输的数据较少,因为即使站点1具有更多计算实例,传输时间也可能使处理时间不堪重负。此外,站点2和3在时间0s就开始处理数据,因为它们不需要获取其他站点的数据。因此,数据传输和数据处理从0到20s执行任务的并行化处理。结果,该方案下总的时间花费为40s。
跨区域分布数据分析的一个重要特征和挑战是,在硬件容量方面,不同站点之间的资源高度异构。在不同的时间和不同的地区建立了不同的站点,具有不同的目标和预算,从而导致硬件资源的高度异构性。为了说明硬件资源的异构性,本发明比较了两个最重要的硬件容量,即计算能力和广域网带宽。特别是,最大的在线服务提供商之一的计算能力可能比普通的在线服务提供商的计算能力大两个数量级。不同站点之间的链路带宽也极为不同。根据对11个不同地区的Amazon EC2的测量,站点之间的带宽比站点内的带宽小15倍,在最坏的情况下,带宽差距达60倍,而且不同站点之间的广域网带宽达到12倍的差距。
此外,在不同站点上生成的数据量是异构的,这对作业响应时间有严重影响。对从100多个不同的Azure站点获取的Skype日志进行的分析表明,所有站点的中位数,第90个百分位数和最大值是包含最少日志数据的站点的中位数,第90个百分点和最大值的8,15和22倍。因此,在某些情况下,站点之间的数据分布可能不是恒定的,甚至可能是倾斜的。
不同站点之间WAN带宽的动态性也对地理分布的数据分析作业提出了重大挑战。研究人员发现,不同站点之间存在很大的差异,在某些情况下,可用带宽低于最大带宽的25%。因此,在带宽改变之前,难以开发用于最小化广域网作业响应时间的任务布置策略。
在并行计算中,作业流程处理的数据量是变化的。即使作业包含相同数量的数据,不同的并行度也将导致不同的作业响应时间。为了确定计算时间与输入数据大小和并行度之间的关系,本发明基于11个虚拟机(1个主节点和10个从节点)构建了一个Spark集群。每个虚拟机包含8个核心和8 GB主内存。
在上述环境下测量了在BigDataBench下在Spark上运行的两个查询的运行时间,结果如图3所示。随着并行度的增加,查询2的运行时间几乎没有变化。查询1处理80 GB的输入时,显示出当计算实例从8增加到56个时,查询1的时间显著减少。当查询1处理20 GB的少量输入时,它需要不超过16个并行计算实例。因此,对于所有作业,在曲线上的“最佳位置”之外分配其他并行任务只会减少收益。从图3中可以确定计算时间与输入数据大小和并行度之间的关系。
根据上述观察和动机,为实现上述目的,本发明提供了首先提供了一种跨多数据中心的数据分布式处理加速方法,称为SDTP(Simultaneous Data Transfer andProcessing),描述如何放置map和reduce作业,以最大程度地减少系统中广域网数据分析作业的整个响应时间。每个阶段中的任务放置都涉及确定应将哪些任务放置在站点上并确定任务输入数据的来源。本方法包括以下步骤:
S1:将广域网数据分析作业分解为map阶段和reduce阶段,所述map阶段包括输入数据加载和map计算两个过程,所述reduce阶段包括shuffle传递和reduce计算两个过程。
分析作业通常包括多个map-reduce阶段。假定每个作业只有一个map阶段和一个reduce阶段,分别为每个阶段制定广域数据分析作业的任务放置。 map阶段包括输入数据加载和map计算两个过程,reduce阶段分为shuffle传递和reduce计算两个过程,如图4所示。
由于WAN带宽和地理分布站点之间计算能力的异构性,因此在不同站点上获取所需输入数据的传输时间是不均匀的。但是,在以前的方法中,只有在所有站点的传输都完成后,各站点才能执行对应map计算。这将使跨地理位置分布的站点闲置并导致不必要的等待时间。因此,在本发明的方法中,站点可以执行其任务计算,只要它获得所需的输入数据即可避免不必要的等待时间。
S2:根据站点之间所需传输的数据量和站点动态变化的带宽,计算得到该站点在所述map阶段的下载时间以及包含该站点的输入数据其他站点在所述map阶段的上传时间。
,,其中是站点集,而表示在所有站点之间传输数据量的集合。在输入数据加载过程中,每个站点可能需要从其他站点获取其输入数据。假设一个站点可以在收集到分配给它的数据后就开始执行其任务,令代表站点的输入数据加载时间;用表示站点的map计算时间。在此阶段,目标是使所有站点之中最大的响应时间最小化。如下所示:
由于站点之间的WAN链路的带宽可能是动态的,因此表示在时间站点的下载带宽,而表示在时间站点对应的上传带宽。根据可以获得每个站点上map任务的比例。因此,站点需要下载的数据总量为。令和表示站点从其他站点下载所有输入数据时的开始和结束时间。令和表示站点将所有数据上载到需要从站点获取数据的其他站点时的开始和结束时间,可以得到:
S3:根据站点在所述map阶段的下载时间以及其他站点在所述map阶段的上传时间得到输入数据加载时间;根据站点数据总量,站点间的并行度以及分析作业操作过程计算得到所述map计算过程的时间。
S4:根据所述输入数据加载时间、所述map计算阶段时间、站点在所述map阶段的下载时间、其他站点在所述map阶段的上传时间以及数据总量约束构建所述map阶段的任务放置问题。
使用上面的描述,在map阶段的任务放置问题P1如下:
S5:根据站点需下载的数据总量、站点的动态带宽计算得到站点在所述reduce阶段的下载时间以及其他站点在所述reduce阶段的上传时间。
在reduce阶段应确定要在每个站点上放置的reduce任务的比例为,其中表示所有站点上执行reduce任务的比例集合。表示站点上shuffle过程的通信时间。这是站点从其他站点获取其输入数据的传输时间。站点上的reduce计算时间用表示。在此阶段,目标是使站点之间的最大响应时间最小化:
在shuffle阶段,站点需要下载的数据总量为。此外,是站点上的中间数据量。 和表示站点从其他站点下载其输入数据时的开始和结束时间。令和代表站点将所有数据上传到相应站点的开始时间和结束时间。因此可以得到:
从式(9)和式(10)可以得出,站点在reduce阶段的下载时间为,其他包含站点的输入数据的站点的上传时间为。站点的shuffle时间是站点的下载时间与包含站点的输入数据的其他站点的上载时间之间的最大传输时间。
S6:根据站点在所述reduce阶段的下载时间以及其他站点在所述reduce阶段的上传时间得到shuffle过程的数据传输时间;根据所述map阶段之后的所述map任务生成的中间数据量、站点的并行度以及作业的计算特性计算得到所述reduce计算阶段时间。
根据S5可以得到:
在reduce计算阶段,站点上reduce计算的输入数据为,其中是由所有站点上的map任务计算的中间数据的总量。使用函数根据作业类型,reduce阶段的输入数据和站点上计算实例的数量来估计站点的reduce计算时间。因此可以得到:
S7:根据站点在所述reduce阶段的下载时间、包含该站点的输入数据的其他站点在所述reduce阶段的上传时间、所述shuffle过程的时间、所述reduce计算过程的时间、任务比例约束、map阶段的map任务生成中间数据构建所述reduce阶段的任务放置问题。
使用以上描述,在reduce阶段将任务放置问题P2表示为:
S8:根据所述map阶段的任务放置问题和所述reduce阶段的任务放置问题计算得到广域网数据分析作业的响应时间。
通过式(7)和式(15)可以获得完成一个广域网数据分析作业在map和reduce阶段总的响应时间。但是,P1和P2都是非线性规划问题。由于WAN带宽的动态特性,以及获取map和reduce任务的计算时间比较复杂,问题P1和P2是NP-hard。
为了克服NP-hard问题,假设WAN是静态的,每个站点都使用固定的WAN带宽。其次,假设每个任务的计算时间是固定的,并且可以通过一个简单的公式来计算map和reduce计算过程的时间。
在map阶段:由于MapReduce生产集群中只有7%的作业是reduce繁重的作业。也就是说,减少map阶段的运行时间对于最小化整个作业的响应时间特别重要。由于WAN是静态的,因此每个站点都有固定的WAN上载和下载带宽。和分别代表站点的下载和上传带宽。代表站点的输入数据加载时间,该时间由站点的下载时间()和需要向其传输数据的站点的上载时间()之间的最大传输时间决定。因此,站点的输入数据加载时间可以用式(18)表示。等于由除以得到,其中是需要从其他站点转移到站点的数据量之和。 是站点需要将数据传输到站点的上载时间中的最大值。因此可以得到:
为了简化计算过程中计算时间的获取,假设每个任务的计算时间是固定的,并且表示map任务的计算时间。当一个站点上的任务数量超过其可用的计算实例时,这些任务将在本地以多批次的方式执行,并且无法使用其他站点上的空闲实例。例如,站点1具有50个实例,站点2具有100个实例。如果站点1和站点2都计算100个map任务,则站点1用两批完成这些任务,站点2用一批完成这些任务。因此,站点1的计算时间是站点2的两倍。因此,每个站点上的计算时间等于任务数除以并行度,然后乘以单个任务的执行时间。站点的map计算过程的时间可以用式(19)表示。
map阶段问题的目标与P1相似。因此,map阶段的任务放置问题P3被表示如下:
上面的问题是非线性规划问题。使用现有的求解器也很难获得最佳解决方案。因此为了进一步简化了问题。假设map任务的计算必须等待数据传输完成。Map阶段的输入数据加载时间和map计算时间均由瓶颈站点控制。可以将这个问题的目标转化为式(21)。具体来说,此作业的map阶段中的输入数据加载时间等于所有站点上最大的输入数据加载时间,如式(22)。在此作业的map阶段中,map计算时间由所有站点上的最大计算时间所控制,如式(23),因此问题P3可以进一步简化为问题P4,公式如下:
上面的问题是线性规划问题,可以通过现有方法在多项式时间内解决,例如内点法或许多求解器已经实现的其他线性规划算法。但是,P4的最佳解决方案可能不是P3的最佳。为此,本发明设计了一种启发式算法来计算map阶段中的任务放置问题(算法1),从而以减少的广域网作业响应时间实现最优任务放置。
在描述算法之前,需要先介绍三个定理。
定理1.当所有站点在此阶段具有相同的响应时间时,将使该阶段的响应时间最小化。
证明:假设存在一个任务放置方案,其中所有站点的响应时间都不相同,并且该任务放置方案在map阶段的时间最短。图5(a)给出了一个示例,其中站点3是响应时间最长的瓶颈站点,而站点2的响应时间最短。 之后,站点3仍在工作,而站点2则处于空闲状态。
因为所有站点都可以互相传输数据,所以如果站点3可以向站点2传输少量数据,并且站点2和站点1的响应时间就不会超过其他站点的最大时间。因此,站点3的任务量将减少,站点3的计算时间将随着任务数量的减少而减少。站点3的传输时间取决于站点3的下载时间与需要将数据传输到站点3的站点的上传时间之间的最大传输时间。由于站点3的下载数据不变,因此站点3的下载时间保持不变。同样,站点3的上传时间也保持不变。因此,站点3的传输时间将减少或保持不变。因此,减少了站点3的响应时间,并且站点1和2的响应时间均小于站点3的响应时间。最后,该阶段的响应时间将减少。因此,该结果与假设相矛盾,定理1得以证明。
证明:在并行数据分析中,阶段的响应时间由瓶颈站点决定。因此,如图5(a)所示,此阶段的响应时间为,并由站点3决定。在任务调整之后,将生成另一个任务放置方案,如图5(b)所示。在此任务放置中,瓶颈站点也是站点3,而站点3的新响应时间小于,即新的任务放置策略的响应时间小于旧任务放置策略的响应时间。因此,新的任务放置可以使阶段的整个响应时间减少。
定理3:在map阶段,如果站点1需要将个数据传输到站点2,站点3需要从站点2传输个数据,站点1需要将个数据传输到站点3,可以确定其他传输策略从而作业响应时间小于或等于原始传输策略的响应时间,如图6(a)所示。
证明:假设站点的上传和下载带宽分别为和。因此,在图5(a)中,站点1的传输时间为0,因为它不需要从其他站点获取数据。站点2的传输时间为,站点3的传输时间为。但是,如果采用其他策略,如图6(b)和(c)所示,则作业响应时间将小于或等于图6(a)的响应时间。如果,则站点1的传输时间为0,站点3的传输时间为,站点2的传输时间为。在这种情况下,三个站点的传输时间也都小于或等于图6(a)中的传输时间,并且三个站点的计算时间不变。因此,定理3被证明。
算法1:
在算法1中尝试平衡每个站点的响应时间。首先,通过使用线性规划确定初步数据传输方案来获得线性规划问题P4的数据传输解(步骤1)。此后,计算每个站点的响应时间。 是站点的传输时间与站点的计算时间之和(步骤2)。随后调用函数,该函数尝试调整数据传输方案以减少map响应时间(步骤3)。在该过程中,算法如定理2中所述,尝试通过减少其输入数据来减少map阶段中站点的响应时间。每步减少的数据量为(步骤12)。
此后,为了进一步缩短map阶段的作业响应时间,使用另一个函数equal。此功能对所有站点的响应时间进行排序,并将每个站点分为两个组,和,其中每个组具有相同数量的站点(步骤19)。接下来,它一对一地匹配两个组的项目,并使匹配的站点获得相同的响应时间(步骤20)。例如,假设站点和匹配,并且站点的响应时间更长。为了获得相同的响应时间,站点需要将一些数据传输到站点。假定传输数据量为,则可求解以下公式:。因此,站点需要将 GB的数据传输到站点。随后验证在计算的数据传输方案中是否存在图5(a)所示的数据传输方案(步骤21)。重复该过程,直到或不再减小。是所有站点响应时间的最大差异阈值。最后,返回map任务放置解决方案,从而减少了作业响应时间。
在reduce阶段,WAN是静态的,每个任务的计算时间是固定的,并且每个站点上的所有任务都需要多次执行。站点的输入数据加载时间可以用式(26)表示,它是站点的获取所有输入数据的下载时间,以及几个需要以一定比例上传数据到站点的站点的上传时间中的最大数据传输时间。站点的reduce计算时间如式(27)所示,表示一个reduce任务的执行时间。
最后,将reduce阶段的任务放置问题P5可以被表示如下:
由于上述问题的复杂性,需要继续进行简化。本发明要求所有reduce任务的计算都在shuffle过程之后。因此,将reduce阶段的目标转换为式(29),将作业的shuffle时间用式(30)表示,式(31)表示作业的reduce计算过程的计算时间。问题P6可以表述如下:
这是一个线性规划问题,可以通过现有求解器在多项式时间内求解。但是,上述方案的作业响应时间还不够小。
由于计算能力的限制,一个站点的map任务不能同时执行,并且每次只能同时执行一部分任务。因此,任务将在不同的批次上执行。任务完成后,可以将这些map任务生成的中间数据先传输到其他站点,这些站点将使用这些数据执行相应的reduce任务。即map过程是CPU密集型,并且shuffle阶段是密集型,因此map计算阶段可以与shuffle阶段重叠。然而,作业的shuffle阶段必须在其map阶段之后开始,并且不能在其map阶段之前完成。这是因为shuffle过程需要等待传输map阶段生成的数据。
可以通过重叠map计算和shuffle阶段来制定作业响应时间。 表示作业的前三个过程的总时间。一旦站点中的第一批map任务完成,便会在该站点上生成这些map任务的中间数据,并将这些中间数据传输到其他站点,这些站点将使用这些数据执行相应的reduce任务。因此,站点上的shuffle阶段的开始时间等于,并且可以通过算法1计算得到。站点上,输入数据加载过程,map计算过程和shuffle过程的总时间是。整个作业的前三个阶段的时间是,中的最大值,可以用式33表示,目标是使作业响应时间最小化。
最后,整个作业的任务放置问题P7可以表示如下:
考虑到上述特征,本发明设计了一种称为SDTP的算法(算法2),以减少整个作业的响应时间。图8中描述了基本概念。相反,图7中显示了常规的广域网数据分析执行过程。只有在所有站点上的先前阶段均已完成时,作业才能开始新阶段。这种方式会导致作业处理期间出现大量资源空闲。本发明SDTP会尽快开始数据处理,并尝试利用这些站点的资源来加快作业执行过程。
算法2:
具体来说,首先通过获得每个站点的输入数据加载时间和map计算过程的时间,由算法1计算(步骤1)。此外,根据和确定shuffle过程的开始时间(步骤2)。此后,建立问题P7的模型。在问题P7中,map和shuffle过程将重叠。线性规划问题P7使用线性规划方法来获得原始的reduce任务放置解(步骤3)。此后,该算法获得所有站点上的缩减任务的差异比率,并尝试通过减少瓶颈站点上的缩减任务的比率来减少作业响应时间。它调用函数,该函数尝试减轻瓶颈站点中的部分reduce任务,从而导致在最空闲的站点上响应时间向响应时间最长的站点倾斜,每次调整的速度为。
由于WAN带宽的动态特性和并行计算中的并行度将严重影响广域网数据分析中的作业响应时间。本发明描述了尝试制定合适的任务调度方案,通过提供更准确的时间估算并将其推广到广域网带宽动态变化的情况来优化作业响应时间。
对于精确的时间估计:具有大量输入或大量中间数据的作业可以有效地利用其并行性。相反,在较小的输入数据上运行的作业或并行化操作效率较低的作业将从额外的并行性中获得很少的收益。因此,有必要了解作业运行时间与输入数据大小和并行度之间的关系。
对于重复性作业,可以对运行时间和中间数据大小进行合理估计。因此,本发明尝试设计一种改进的方法以减少作业运行时间。使用多元非线性回归算法来预测作业的运行时间。当计算在每个阶段分别计算任务放置解决方案的时间,为每个阶段的运行时间构建相关模型。在map阶段,问题P8可以表示为:
在reduce阶段,问题P9可以表示为:
如算法3所示,首先根据每个阶段的预测时间,首先建立预测模型和来预测map时间并减少每个站点的响应时间(步骤1)。接下来,通过求解P4来计算初始解(步骤2)。此后,使用算法1中的函数在shuffle阶段获得更好的传输方案(步骤4)。在此函数中,使用预测模型来计算每个站点上的map过程的计算时间。随后,按照算法2进行步骤2至5,以获得最终的任务放置解决方案。在这些步骤中,还使用预测模型来计算每个站点上的reduce过程的计算时间。
对于动态网络带宽:除了稀缺性之外,WAN带宽中还存在较大的差异。动态WAN带宽将显著影响广域数据分析作业的响应时间。例如,一个站点可能包含足够的带宽和丰富的计算资源,因此可以执行作业A的大量计算任务,但是在作业A的执行过程中,该站点的WAN带宽急剧下降,此时该站点必须花更多的时间获取所需的输入数据。因此,如果不改变原始任务放置策略,作业A的作业响应时间将大大增加。因此,有必要考虑WAN带宽的动态特性,尤其是对于响应时间长的批处理作业。
针对动态WAN带宽,本发明设计了一个任务放置更新模块,该模块提供了一个带宽检测组件,可以以给定的间隔检测每个站点的带宽。当WAN带宽的变化超过时,模块将根据作业执行状态和WAN带宽的变化来更改任务放置解决方案。如算法4所示,当作业处于输入数据加载过程时,首先计算每个站点的数据量,然后使用算法3确定新任务在map和reduce阶段的任务放置(步骤5至7)。如果作业在map计算过程,继续完成map计算过程,然后使用算法3中的功能在reduce阶段计算新的任务放置(步骤8至9)。在该算法中,使用预测模型来预测不同站点上作业的计算时间的减少。如果当前时间大于,则不作任何操作,因为shuffle过程会将对应数据传输到相应的站点。任务放置的更改将严重影响reduce的响应时间。算法4中介绍了该算法的具体步骤。
在算法4中,没有循环,最耗时的过程是调用算法3进行执行。因此,算法4的复杂度由算法3支配。在算法3中,调用函数来执行。在中,第8至13行的while循环的迭代数为常数,第11至12行的嵌套while循环迭代次,其中为站点数。因此,复杂度为。
算法3 SDTP+:
算法4 SDTP++:
依托于上述方法,本发明还提供了一种跨多数据中心的数据分布式处理加速方法的系统,包括处理器、存储器以及储存于存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述任一方法的步骤。
本发明具有以下有益效果:
本发明提出了一种新的非线性规划模型,该模型通过联合考虑站点内的资源异构性和并行度以及站点之间的动态WAN链路来表征跨区域的数据分析工作,可以在数据传输和数据处理之间实现有效的平衡,并尽可能快的开始数据处理,从而减少作业处理时间。同时提供了更准确的时间估算,并将其推广到WAN带宽动态变化的情况下。本发明性能优于现有方法,总体工作响应时间相较于传统方法大大减少。
下面将参照附图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明所述的三个跨区域的站点提供异构的硬件资源示意图;
图2为本发明所述的原有方法和优化后方法的作业完成时间示意图;
图3为本发明所述的不同并行度和输入数据下的作业完成时间示意图;
图4为本发明所述的一个广域网数据分析作业的执行过程示意图;
图5为本发明所述的不同的任务放置方法示意图;
图6为本发明所述的一个提升的任务放置方法示意图;
图7为本发明所述的原有方法的执行过程示意图;
图8为本发明SDTP的执行过程示意图;
图9为本发明优选实施例提供的不同站点数量下的不同方法平均响应时间以及速度降低对比图;
图10为本发明优选实施例提供的不同站点数量下的不同方法减少平均响应时间以及降低不同规模示意图;
图11为本发明优选实施例提供的不同站点数量下的不同方法减少平均响应时间并降低不同组件的速度示意图;
图13为本发明优选实施例提供的计算实例数量的影响示意图;
图14为本发明优选实施例提供的绝对百分比误差和平均响应时间的减少以及预测计算时间对比图;
图15为本发明优选实施例提供的减少WAN带宽变化时的平均响应时间示意图;
图16为本发明一种同时数据传输和处理加速广域网数据分析的方法流程图。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
本实施例构建了两个具有10或30个地理分布的异构站点的广域网分析环境。资源容量是根据Amazon EC2设置的。具体配置为:每个站点之间链路的带宽范围从100 Mbps到2Gbps;每个站点上的计算实例数范围从10到100;设置中间数据与输入数据之间的比率到0.5;每个任务的输入数据量为 = = 64MB;映射任务的执行时间的范围为10到120s;reduce任务的执行时间的范围为5到60 s。
本实施例使用了有关Google和阿里巴巴中数据中心使用情况的真实的集群运行的数据集来模拟跨区域的数据分析作业。 Google数据集收集以下信息:包含了1.25万台机器的机器的作业、任务和机器运行的信息。机器,作业和任务的事件全部由一个或多个记录描述。每个记录通常包含元信息,例如时间戳,ID,事件类型和资源请求。阿里巴巴数据集由阿里巴巴集团于2018年发布。其中包含有关八天内4千台机器的记录。此数据集包括许多类型的批处理作业负载,其中大多数是DAG作业。
这两个数据集的记录单个数据中心中的作业运行信息。为了模拟跨区域的数据分析作业的运行,本实施例将这些计算机划分为不同的站点。根据机器上每个作业的任务分布,可以获得所有站点上每个作业的输入数据量。
本实施例中将本发明的方法与以下方法进行了比较:
In-Place:默认的Spark方法,根据输入数据的位置在本地运行任务,并在shuffle阶段将任务平均分配给所有站点。
Iridium: 最近的一种方法是通过优化reduce阶段的任务放置来改善广域网数据分析作业的响应时间。
Tetrium: 近年来的最先进方法旨之一在优化输入数据的放置并优化reduce阶段的任务放置,改善作业的响应时间。
实施例1
本实施例通过将SDTP与几种经典的任务放置方法进行比较,以平均响应时间和平均slowdown进行比较,来评估SDTP的性能,主要是通过与各种方法相比平均响应时间减少和平均slowdown降低来得出结论。其中,slowdown定义为与其他方法相比,单个作业的响应时间减少率。例如,使用In-Place的作业A的响应时间为,使用SDTP的作业A的响应时间为;因此,与使用In-Place响应时间相比,作业A的slowdown为。平均slowdown是每个作业的所有slowdown之和除以作业数。
图9(a)展示了SDTP在不同站点数量下平均作业响应时间的改进。显然,SDTP明显优于其他基准方法。特别是,当站点数量为10时,与In-Place相比,本发明的方法将所有作业类型的平均作业响应时间减少了72%,70%和29%。由此可知,本发明的方法可以有效地减少作业响应时间。当站点数为30时,与In-Place,Iridium和Tetrium相比,本发明的方法将所有作业类型的平均作业响应时间分别减少了61%,60%和19%。在10个站点设置下,平均响应时间的减少比在30个站点设置下的平均响应时间的减少更为显着。这是因为更多的站点导致需要更多的计算资源来处理作业,并且减少了map计算和shuffle阶段的重叠时间。因此,平均响应时间的减少随着站点数量的增加而减少。
图9(b)还显示了当站点数量变化时,与In-Place,Iridium和Tetrium相比slowdown的降低。当站点数量为10时,与In-Place相比,本发明的方法可以将每个作业的平均响应时间减少56%。因此,SDTP可以减少大多数广域网数据分析作业的作业响应时间。同样,随着站点数量的增加,平均slowdown的下降也有所减少。这也是因为随着站点数量的增加,处理作业所需的计算资源的总和增加了,并且map计算和shuffle过程的重叠时间减少了。因此,当站点数量增加时,平均slowdown的减少程度将减小。此外,根据不同的基准,平均响应时间的减少小于平均slowdown的减少。这表明SDTP对于响应时间长的作业更有效。
本实施例还评估了与In-Place,Iridium和Tetrium相比,不同规模作业的平均响应时间的改进。本实施例根据所需的输入数据量将所有作业分类为小规模,中等规模或大规模的作业。如果作业的输入数据量不超过60 GB,则将其视为小型作业。如果作业的输入数据量大于60 GB且不大于600 GB,则将其分类为中等规模的作业。否则,这是一项大规模的作业。在此实验中,站点数设置为10。
图10(a)表明,随着作业规模的增加,平均响应时间的改善更大。也就是说,本发明的方法对于耗时的作业更为有效。这是因为随着作业规模的增加,SDTP可以使用更多的空闲资源来传输数据和处理任务。在shuffle过程,耗时的作业通常会导致跨所有站点的数据传输和映射任务执行的总时间差异更大。因此,SDTP可以使用空闲资源来平衡跨所有站点的数据传输和映射任务执行,从而节省更多时间。在reduce阶段,较大的作业会导致更长的map计算和shuffle传输时间,并且可以通过重叠map计算和shuffle过程来进一步减少作业响应时间。
图10(b)显示了随着作业规模的增加,作业响应时间变小。显然,大规模作业的平均速度下降幅度在37%至75%之间。因此,当作业规模较大时,本发明的方法可以有效地减少作业响应时间。平均slowdown的减少随着作业规模的增加而减少。这是因为,随着输入数据量的增加,作业的响应时间增加,并且SDTP可以优化的时间变长。
本实施例还评估了与In-Place,Iridium和Tetrium相比,平均响应时间对不同组件的影响。图11(a)展示了在不同组件上与其他方法相比平均响应时间的减少。在map阶段仅使用算法1时,与In-Place,Iridium和Tetrium相比,SDTP分别将平均作业响应时间减少了65%,61%和10%。在减少阶段仅使用算法2时,平均作业响应时间的减少大于使用算法1时平均作业响应时间的减少。也就是说,算法2可以减少更多的作业响应时间。同时使用算法1和2时,平均作业响应时间的减少大于仅使用一种算法时平均作业响应时间的减少。也就是说,同时使用算法1和2可以减少作业响应时间。此外,同时使用算法1和2的平均作业响应时间的减少小于分别使用算法1和算法2的平均作业响应时间减少的总和。因此,算法1和2相互影响。
图11(b)显示了与其他方法相比平均slowdown降低的情况。可以观察到,使用算法2时的平均减少slowdown比使用算法1时的平均减少slowdown稍大。这表明算法2在减少作业时间方面更有效。此外,当同时使用算法1和2时,减少的slowdown大于仅使用一种算法时的减少的slowdown。
实施例2
图12(a)描绘了的影响。该图指示了不同值的响应时间与的比率,其中是时的响应时间。可以看出,作业响应时间随的增加而增加。这是因为较大的将产生更多的中间数据。在shuffle阶段传输这些中间数据并在reduce阶段处理这些中间数据都可能增加总体响应时间。
图12(b)说明了与In-Place,Iridium和Tetrium相比具有不同值的平均响应时间的减少。可以观察到,随着q的增加,与Tetrium相比,平均响应时间的减少有所增加,而与In-Place和Iridium相比,平均响应时间的减少则相对稳定。其原因是,随着的增加,中间数据量增加。与Tetrium相比,SDTP可以通过重叠map计算和shuffle过程来有效减少reduce阶段的响应时间。由于In-Place和Iridium的作业响应时间很长,SDTP可以充分利用空闲资源来减少作业响应时间。因此,与In-Place和Iridium相比,SDTP平均响应时间的减少总是很大。
不同数量的实例也会影响作业响应时间。图13(a)表明,平均作业响应时间的减少随着实例数量的增加而减少。在本实验中,当实例的比率为1时,每个站点上的实例数在100到1000之间。当计算实例的比率为0.1时,每个站点上的计算实例数等于当计算实例号的比率为1时的计算实例数乘以0.1时。因此,实例的数目随着实例数目的比率的增加而增加。该图表示了作业在不同比率下的响应时间,其中T是计算实例的比率为1时的响应时间。可以看出,随着计算实例数的增加,作业响应时间减少了。当站点具有更多实例时,它可以处理map并更快地减少任务,因此,减少了map的时间并减少了计算阶段。
与Iridium和Tetrium相比,具有不同计算实例数量的平均响应时间的减少如图13(b)所示。可以观察到,随着计算实例数量的增加,平均响应时间的会减少。这是因为,当站点具有更多计算实例时,shuffle和reduce计算时间会减少,因此SDTP可以减少的时间受到限制,尤其是在reduce传输过程。
实施例3
本实施例考虑了并行性在并行计算中的影响。首先评估了预测方法对不同阶段响应时间的影响。此后,在考虑并行度的情况下评估了计算属性对并行计算中不同方法的影响以及方法平均响应时间的改进。
本实施例使用BigDataBench 测量了在Spark上运行的具有不同数据量和并行度的多个查询的时间。根据结果,本实施例使用多元线性回归算法构建每个阶段计算时间的预测模型。结果表明,R2统计量均大于0.9,其中R为相关系数。 F统计量的值大于根据F分布表的值。与F统计量相对应的概率p均小于0.0001。即,在输入数据量和并行度之间存在很强的相关性,因此预测模型是有效的。
为了量化并行度的影响,本实施例分析了不同方法的绝对百分比误差(APE)。计算出的APE为。例如,是In-place算法的平均响应时间,而是In-place算法利用预测模型获取计算时间时的平均响应时间。图14(a)展示了针对不同作业规模的不同算法的APE。算法的APE均大于20%。
因此,如果仅使用shuffle时间并减少任务和计算实例的数量来计算不同阶段的计算时间,则作业响应时间的最终结果将与实际作业响应时间明显不同。此外,由于Tetrium考虑了计算资源异构性在不同站点上的影响,因此Tetrium的APE比其他方法更大。Tetrium中每个站点的计算时间等于,其中V是数据量,t是单个任务的执行。
与In-Place,Iridium和Tetrium方法相比,不同作业规模下的平均响应时间减少了,如图14(b)所示。可以看出,所有作业的平均响应时间提高了7%至14%。此外,当作业规模很大时,所有作业的平均响应时间将缩短20%至26%。即,平均响应时间的减少随着数据量的增加而增加。通常,SDTP +的平均响应时间的改进在某种程度上受到限制。这是因为在该实验中,在所有情况下,每个作业在每个站点上的输入数据量均小于100 GB。
实施例4
图15(a)展示了动态WAN链路带宽对作业响应时间的影响。所有站点的更改带宽都是在0.1和2 GB/s之间随机生成的。当WAN带宽在不同的作业规模上变化时,本实施例测量了SDTP++与SDTP+相比,平均响应时间的减少。从图14(a)可以看出,平均响应时间大大减少了。因此,如果在任务放置保持不变的情况下改变WAN带宽,则作业响应时间将变得很长。当作业规模为中等或较大时,与小规模作业相比,平均响应时间的减少非常大。因此,SDTP++对于耗时长的作业更为有效。
图15(b)显示了使用不同WAN带宽时平均响应时间的减少。在该图中,横坐标的值是WAN带宽的差。例如,当为0.1时,每个站点的WAN带宽的范围从×0.9到×1.1。可以看出,平均响应时间的减少随着的增加而增加。原因是当增大时,具有足够带宽的链路可能会成为瓶颈链路,原始数据传输方案将导致更长的传输时间。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.跨多数据中心的数据分布式处理加速方法,其特征在于,包括以下步骤:
将广域网数据分析作业分解为map阶段和reduce阶段,所述map阶段包括输入数据加载和map计算两个过程,所述reduce阶段包括shuffle传递和reduce计算两个过程;
根据站点之间所需传输的数据量和站点之间动态变化的带宽,计算得到各站点在所述map阶段的数据下载时间和数据上传时间;
根据站点在所述map阶段的数据下载时间以及包含所述站点的输入数据的站点在所述map阶段的数据上传时间得到所述该站点的输入数据加载时间;根据所述站点获得的数据量、站点的并行度以及作业在map阶段的计算特性计算得到所述站点在所述map计算过程的时间;
根据各站点的输入数据量、各站点之间的动态带宽、各站点在所述map阶段的数据下载时间以及数据上传时间,输入数据加载时间、各站点的并行度以及不同作业在map阶段的计算特性和所述map阶段计算过程的时间构建所述map阶段的任务放置问题;构建所述map阶段的任务放置问题包括以下步骤:
步骤1:依托站点的原始数据大小、站点的下载带宽、站点的上传带宽以及站点的计算实例的数量,通过线性规划求解线性规划问题P4的数据传输解;步骤2:计算所述map阶段每个站点的响应时间;步骤3:调用函数调整数据传输解以减少所述map阶段每个站点的响应时间;步骤4:调用函数对所有站点的响应时间进行排序,并将每个站点分为两个组;步骤5:一对一地匹配两个组的响应时间并使匹配的站点获得相同的响应时间;使匹配的站点获得相同的响应时间的方法为数据量多的站点传输数据至数据量少的站点,通过以下公式确定需传输的数据量:;步骤6:验证步骤5计算过程中是否存在所有站点具有相同的响应时间的情况,若有,更新数据传输解,重复步骤2至步骤6,否则,输出通过数据传输解得到的站点响应时间;步骤7:按数据传输解和站点响应时间构建所述map阶段的任务放置问题;其中,线性规划问题P4具体为:
其中, 和分别代表站点的下载和上传带宽、代表站点的输入数据加载时间、 为站点的原始数据大小、为站点的计算实例的数量、为传输数据量、 表示站点 的map计算时间、表示map任务的计算时间、表示站点的计算实例的数量;表示在所有站点之间传输数据量;
根据各站点需下载的数据总量、站点之间的动态带宽计算得到各站点在所述reduce阶段的数据下载时间以及数据上传时间;
根据所述站点在所述reduce阶段的数据下载时间以及包含所述站点在所述reduce阶段的输入数据的站点上传时间得到所述站点的shuffle传递过程的时间;根据所述map阶段之后的所述map任务中间数据、站点的并行度以及作业在reduce阶段的计算特性计算得到所述reduce计算过程的时间;
根据各站点在所述reduce阶段的数据下载时间、在所述reduce阶段的数据上传时间、所述shuffle传递过程的时间、所述reduce计算过程的时间、任务比例约束、map阶段之后产生的中间数据量构建所述reduce阶段的任务放置问题;
根据所述map阶段的任务放置问题和所述reduce阶段的任务放置问题计算得到广域网数据分析作业响应时间。
8.根据权利要求1所述的跨多数据中心的数据分布式处理加速方法,其特征在于,将带宽静态化、站点计算时间固定化从而让所述map阶段的任务放置问题和所述reduce阶段的任务放置问题线性化。
9.跨多数据中心的数据分布式处理加速系统,包括处理器、存储器以及储存于所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-7任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110175768.2A CN112532464B (zh) | 2021-02-08 | 2021-02-08 | 一种跨多数据中心的数据分布式处理加速方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110175768.2A CN112532464B (zh) | 2021-02-08 | 2021-02-08 | 一种跨多数据中心的数据分布式处理加速方法及其系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112532464A CN112532464A (zh) | 2021-03-19 |
CN112532464B true CN112532464B (zh) | 2021-05-11 |
Family
ID=74975616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110175768.2A Active CN112532464B (zh) | 2021-02-08 | 2021-02-08 | 一种跨多数据中心的数据分布式处理加速方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112532464B (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226467B (zh) * | 2013-05-23 | 2015-09-30 | 中国人民解放军国防科学技术大学 | 数据并行处理方法、系统及负载均衡调度器 |
US9246688B1 (en) * | 2013-09-25 | 2016-01-26 | Amazon Technologies, Inc. | Dataset licensing |
TWI535328B (zh) * | 2014-07-08 | 2016-05-21 | 國立臺灣大學 | 電網閘道器及具有多個電網閘道器之電塔管理系統 |
CN104239520B (zh) * | 2014-09-17 | 2017-06-20 | 西安交通大学 | 一种基于历史信息的hdfs数据块放置策略 |
CN107704069B (zh) * | 2017-06-15 | 2020-08-04 | 重庆邮电大学 | 一种基于能耗感知的Spark节能调度方法 |
CN107465727B (zh) * | 2017-07-21 | 2020-12-22 | 曙光信息产业(北京)有限公司 | 一种时间监控系统和方法 |
-
2021
- 2021-02-08 CN CN202110175768.2A patent/CN112532464B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112532464A (zh) | 2021-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Offloading dependent tasks in mobile edge computing with service caching | |
Le et al. | Allox: compute allocation in hybrid clusters | |
Jalaparti et al. | Network-aware scheduling for data-parallel jobs: Plan when you can | |
Hu et al. | Flutter: Scheduling tasks closer to data across geo-distributed datacenters | |
Yang et al. | A framework for partitioning and execution of data stream applications in mobile cloud computing | |
CN103401939B (zh) | 一种采用混合调度策略的负载均衡方法 | |
Beaumont et al. | A realistic model and an efficient heuristic for scheduling with heterogeneous processors | |
US20210304066A1 (en) | Partitioning for an execution pipeline | |
CN102929725B (zh) | 信号处理并行计算软件的动态重配置方法 | |
Abdelhamid et al. | Prompt: Dynamic data-partitioning for distributed micro-batch stream processing systems | |
Farhat et al. | Stochastic modeling and optimization of stragglers | |
Culhane et al. | Optimal communication structures for big data aggregation | |
CN106293947B (zh) | 虚拟化云环境下gpu-cpu混合资源分配系统和方法 | |
Namyar et al. | Solving {Max-Min} Fair Resource Allocations Quickly on Large Graphs | |
CN113205128A (zh) | 基于无服务器计算的分布式深度学习性能保证方法 | |
Senger | Improving scalability of Bag-of-Tasks applications running on master–slave platforms | |
CN112532464B (zh) | 一种跨多数据中心的数据分布式处理加速方法及其系统 | |
CN115587222B (zh) | 分布式图计算方法、系统及设备 | |
Chen et al. | SDTP: Accelerating wide-area data analytics with simultaneous data transfer and processing | |
Chhabra et al. | Qualitative parametric comparison of load balancing algorithms in parallel and distributed computing environment | |
Sen et al. | Predictive price-performance optimization for serverless query processing | |
Banicescu et al. | Towards the robustness of dynamic loop scheduling on large-scale heterogeneous distributed systems | |
CN115328628A (zh) | 一种基于能量优化的多核异构NoC平台任务执行方法 | |
Hamdi et al. | Dynamic load-balancing of image processing applications on clusters of workstations | |
US20220107817A1 (en) | Dynamic System Parameter for Robotics Automation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |