CN101739281B - 用于机器集群的并行编程的方法和设备 - Google Patents

用于机器集群的并行编程的方法和设备 Download PDF

Info

Publication number
CN101739281B
CN101739281B CN200910205412.8A CN200910205412A CN101739281B CN 101739281 B CN101739281 B CN 101739281B CN 200910205412 A CN200910205412 A CN 200910205412A CN 101739281 B CN101739281 B CN 101739281B
Authority
CN
China
Prior art keywords
function
user
node
chunk
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200910205412.8A
Other languages
English (en)
Other versions
CN101739281A (zh
Inventor
刘桓
D·奥尔班
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Accenture Global Services Ltd
Accenture International LLC
Original Assignee
Accenture Global Services GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Accenture Global Services GmbH filed Critical Accenture Global Services GmbH
Publication of CN101739281A publication Critical patent/CN101739281A/zh
Application granted granted Critical
Publication of CN101739281B publication Critical patent/CN101739281B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/40Transformation of program code
    • G06F8/41Compilation
    • G06F8/45Exploiting coarse grain parallelism in compilation, i.e. parallelism between groups of instructions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Multi Processors (AREA)

Abstract

本发明涉及用于机器集群的并行编程的基础架构。具体地,GridBatch提供了一种基础架构框架,其为程序员隐藏了开发实现并行化计算的逻辑和编程应用的详细的复杂性和负担。程序员可以使用GridBatch来实现并行化的计算操作,这些操作最小化了网络带宽要求,并高效地划分以及协调多处理器配置中的计算处理。GridBatch提供了有效且方便的方法,来使用实现最高性能结果的经济可用的多处理器配置快速构建并行化应用。

Description

用于机器集群的并行编程的方法和设备
相关申请的交叉参考
本申请要求于2008年11月7日提交的美国专利申请序列号12/267,142的优先权,该申请是于2007年10月1日提交的美国专利申请序列号11/906,293的部分继续申请,通过参考而将二者在此并入。
技术领域
本公开涉及通过使用被设计用来实现详细的并行化计算规划的运算符软件库,来实现应用并行化的系统和方法。具体地,本公开涉及用来实现并行化应用的高效且成本节约的方式。
背景技术
目前,机构在任意给定时间需要处理的数据量与使用单CPU(单处理器)系统的机构可用的计算能力之间存在很大差异。如今,机构为了得到有价值的信息和商业洞察力而使用处理千兆字节甚至拍字节(petabyte)的数据。不幸地,很多应用通常在单处理器机器上顺序运行,并且为了产生可用的结果需要数个小时甚至需要数天的计算时间。机构必须处理的数据量与机构可用的单处理器的计算性能之间的差距持续加大。机构收集且处理的数据量呈指数增长。机构必须处理每年约125%的企业级数据库增长速率或者等于每10个月大小翻倍的企业级数据库增长速率。用于其他数据丰富产业的数据容量也持续呈指数增长。例如,天文学具有每12个月数据翻倍的速率,生物序列具有每9个月数据翻倍的速率,功能染色体具有每6个月数据翻倍的速率。
尽管存储容量持续以指数速率增长,但是单处理器的速度不再 呈指数增长。因此,尽管组织可能有能力持续增大数据存储容量,但是单处理器配置的计算性能却不能保持同步。组织需要寻求用来解决存储容量和单处理器性能相脱离趋势的技术方案。
为了处理大量数据,应用需要大量的计算能力和较高的I/O吞吐量。程序员面临的技术挑战在于寻求用于在多个CPU上划分计算处理并协调计算的高效方式,从而解决计算能力的需求和供给之间增大的差距。鉴于有限网络带宽可用性这一现实,程序员还面临这样的技术挑战,即,解决将大量数据递送到多个CPU以执行并行处理计算所需的大量带宽需求。仅仅将附加机器引入处理池(配置)并不会增大配置的整体网络带宽。尽管作为结果,本地磁盘I/O带宽会增大。网络拓扑可以表示为树,其具有代表网段的很多分支和代表处理器的叶子。因此,沿着任一网段的单个瓶颈可确定配置的整体网络容量和带宽。为了升级带宽,必须利用本地磁盘I/O带宽增长的高效使用。
与并行化计算操作相关联的特别技术挑战包括并行编程复杂度、充分的开发工具和测试工具、网络带宽伸缩性限制、存储容量和单处理器性能的相脱离趋势,和计算处理的高效划分和多处理器配置中的协调。
长久以来都需要以经济、高效方式实现并行计算方案以及高效缓解程序员开发复杂并行程序这一负担的系统和方法。
发明内容
GridBatch提供了一种基础架构框架,程序员可以用其来容易地将高级设计转换成并行化的计算实现。程序员分析应用中的计算并行化潜能、将计算分解成离散成分,并考虑实现最高性能的数据划分规划。GridBatch实现由程序员开发的详细的并行化计算规划,而不需要程序员创建用来完成计算执行的底层逻辑。GridBatch提供了“运算符”(用于数据集操作的原语)库,将其作为实现并行化的构建块。GridBatch隐藏了与GridBatch库中并行编程相关联的复杂性, 使得程序员仅需要知道为了正确实现并行化而如何应用这些运算符。
尽管GridBatch可以支持很多类型的应用,但是GridBatch对关注部署分析应用的程序员尤其提供了益处,这是因为分析应用的独特特征和分析应用使用的计算运算符。程序员通常编写分析应用以从大型数据集收集统计,诸如特定事件多频繁地发生。分析应用的计算需求通常涉及将来自于两个或更多不同数据集的数据相关联(例如,以SQL语句表达的表联接(join)所带来的计算要求)。
GridBatch利用数据定位技术来高效地管理磁盘I/O并高效地升级系统带宽要求。换言之,GridBatch将计算处理进行了划分,并在多个处理器上协调计算,使得处理器在本地数据上执行计算。GridBatch将传输至多个处理器以执行并行处理计算的数据量最小化。
GridBatch通过隐藏并行编程复杂性,利用本地化的数据最小化网络带宽要求,以及对计算处理的划分和在多处理器配置中的协调进行管理,解决了与并行计算操作相关联的技术问题。
在阅读了附图和具体描述后,对于本领域技术人员而言,本发明的其他系统、方法和特征将是或者将变得易见。意在将所有这些附加系统、方法、特征和益处包括在本说明书中、本发明的范围内,并由所附权利要求进行保护。
附图说明
参照附图和描述,可以更好地理解本公开。附图中的组件并不必须按照比例绘制,而是意在强调本发明的原理。而且,在附图中,类似的附图标记在不同附图中指代对应的部分或元件。
图1示出了GridBatch系统配置。
图2示出了示例性的主节点。
图3示出了在处理分布函数调用期间的GridBatch系统配置。
图4示出了在处理联接函数调用期间的GridBatch系统配置。
图5示出了在处理卷积函数调用期间的GridBatch系统配置。
图6示出了在处理递归函数调用期间的GridBatch系统配置。
图7示出了GridBatch系统配置可以用来执行分布运算符的逻辑流。
图8示出了GridBatch系统配置可以用来执行联接运算符的逻辑流。
图9示出了GridBatch系统配置可以用来执行卷积运算符的逻辑流。
图10示出了GridBatch系统配置可以用来执行递归运算符的逻辑流。
图11示出了在处理映射函数调用期间的GridBatch系统配置。
图12示出了GridBatch 100可以用来执行映射运算符的逻辑流。
图13示出了在处理块函数调用期间的GridBatch系统配置。
图14示出了GridBatch 100可以用来执行映射运算符的逻辑流。
具体实施方式
针对并行计算的早期研究关注于在顺序应用中自动检测并行性。例如,工程师研发出计算机架构中的技术,诸如乱序缓冲区,其被设计用来检测指令间的依赖性并以并行方式调度独立的指令。这些技术仅仅检查在顺序编程语言中编码的代码段,并不能发掘应用级的并行性。因此,这些技术限制了可被发掘的并行性数量。
一大类应用(尤其是数据密集型批处理应用)在数据级具有明显的并行性。然而,实现并行应用存在若干技术挑战。在设计并行应用时,程序员必须解决与机器和处理器之间的通信、协调和同步有关的重要问题。与顺序程序完全不同,鉴于并行程序固有的异步性,程序员必须参与到并行程序配置中所有机器之间的所有可能交互。而且,并不存在用于并行应用和配置开发的有效调试工具。例如,单步调试某些代码可能难以在配置具有运行在很多机器上的很多线程的环境中执行。而且,归因于导致并行应用的复杂交互,程 序员标识事实上作为瞬象被观察到并且很难再现的很多错误。实现并行化应用的程序员所面临的技术挑战直接转化成更高的研发成本和更长的研发周期。另外,程序员通常不能将并行化方案移植或复制到其他实现。
程序员认识到数据库系统非常适合于分析应用。不幸的是,数据库系统至少归结于两个原因而不能针对较大数据集进行升级。首先,数据库系统给出了高级SQL(结构化查询语言),其目标在于隐藏实现细节。尽管SQL相对容易使用,但是从并行化的角度看,此类高级语言的特性迫使用户按照导致处理低效执行的方式来表达计算。与利用低级语言(例如,C++)(其中并行化处理一次只读取一个数据集)编程相反,以SQL表达的同一处理可能导致执行若干读取。即使已经研发出了自动优化查询处理的技术,但是通过使用低级语言来实现并行化计算所达到的性能仍然远远超过诸如SQL的高级语言的性能。第二,数据库系统的I/O架构限制了分布式并行化实现的可升级性,因为数据库假设将通过分布式文件系统或者SAN(存储区域网络)硬件而经由网络上的公共逻辑存储单元进行数据访问。数据库并不利用数据的逻辑到物理映射,并且因此没有利用数据位置或数据的物理地点。即使存在成熟的高速缓存机制,数据库通常也通过不必要地遍历网络和消耗宝贵网络带宽的方式来访问数据。
分析应用在若干方面与web应用不同。分析应用通常处理结构化数据,相反,web应用频繁地处理非结构化数据。分析应用通常需要交叉参考来自于不同来源(例如,不同数据库表)的信息。与web应用相比,分析应用通常关注于更少的统计。例如,单词计数应用需要词汇表中所有单词的统计,相反,分析应用可以仅对所销售产品的数量感兴趣。
GridBatch提供了基础运算符,其可以用于分析应用或其他应用。详细的并行化应用实现可以表达为由GridBatch提供的基本运算符的组合。GridBatch在实现和调试方面为程序员节约了可观的时间, 因为GridBatch为程序员解决了并行编程方面的问题。利用GridBatch,程序员确定所期待的运算符组合、顺序运算符和部署每个运算符的最少编程。
尽管将描述GridBatch的特定组件,但是按照GridBatch的方法、系统和产品可以包括附加的组件或者不同的组件。例如,处理器可以实现为微处理器、微控制器、专用集成电路(ASIC)、离散逻辑,或其他类型电路或逻辑的组合。类似地,存储器可以是DRAM、SRAM、闪存或任何其他类型存储器。用来实现下述处理和程序的逻辑可以存储(例如,作为计算机可读指令)在诸如光盘或磁盘或其他存储器的计算机可读介质上。备选地或附加地,该逻辑可以实现在可在实体间传送的电磁或光信号中。标志、数据、数据库、表和其他数据结构可以单独存储和管理、可并入单个存储器或数据库、可被分布,或可用很多不同方式在逻辑上和物理上进行组织。程序可以是单个程序的部分、单独的程序或者可分布在若干存储器和处理器上。此外,程序或程序的任何部分可以替代地在硬件中实现。
以下描述一个示例,其中基于web的零售商销售诸如PC和打印机的计算机设备。该零售商使用为了跟踪大量数据和信息而使用需要千兆字节存储的若干表,可以使用多个表(包括交易表;客户表和经销商表)来利用这些数据和信息得到分析信息。交易表存储用于每个所销售物品的产品id和购买者的客户id的记录。客户表存储每个客户的客户信息,经销商表存储关于与零售商做生意的每个经销商的信息。零售商可以使用GridBatch来分析很多分析,某些分析包括简单计数统计(例如,特定产品已销售多少,并标识带来利润的前十大客户)。零售商可以使用GridBatch来分析更加复杂化的分析,其涉及多个表和复杂的计算。例如,零售商可以使用GridBatch来确定在地理上邻近零售商的分销设施之一的客户数量,以便测量分销网络的效率。
GridBatch基础架构运行在处理节点集群(“多个节点”)上。运行在GridBatch集群环境中的两个软件组件名称为文件系统管理器 和作业调度器。文件系统管理器在集群中的所有计算节点上管理文件并存储文件。文件系统管理器可以将大型文件分段成较小组块(chunk),并将每个组块存储在单独节点上。在该集群中的所有节点中,GridBatch可以指定例如一个节点作为命名节点,而所有其他节点作为数据节点。
数据节点保有大型文件的组块。在一个实现中,取决于集群中节点数量和其他配置考虑,数据节点可以保有大型文件的不止一个组块。数据节点对针对读取指派给该数据节点的组块或向其写入的客户端请求作出响应。命名节点保有文件系统的命名空间。命名节点维护大型文件到组块列表的映射、指派给每个组块的数据节点和每个数据节点的物理位置和逻辑位置。命名节点还对来自客户端请求的针对文件位置的查询作出响应,并将大型文件的组块分配到数据节点。在一个实现中,GridBatch利用节点的IP地址来引用节点,所以GridBatch可以直接访问节点。主节点还维护物理网络拓扑,其跟踪哪些节点是直接连接的。物理网络拓扑可以由管理员手动填充和/或通过自动拓扑发现算法来发现。网络拓扑信息可以通过指示为了减小网络带宽消耗而可以发送和/或取回中间结果的附近邻居从节点,而改善递归运算符的性能。以下讨论拓扑及其在促进递归运算符执行中的使用的简洁描述。
GridBatch文件系统在很多节点上分布大文件,并将每个组块的位置通知给作业调度器,使得作业调度器可以在容纳将被处理的组块的节点上调度任务。GridBatch将大型数据分析问题(诸如,数据仓库)作为目标,其中需要处理大量结构化数据。文件通常存储具有相同模式(例如,对象所有者、或结构或对象族)的数据记录大型集合。对于结构化数据,GridBatch使用数据划分来将数据分段为更小的片,类似于数据库划分。GridBatch文件系统存储固定数量的组块,每个组块具有组块id(CID)。程序员可以与文件系统中的其他组块相独立地访问任何组块。
在一个实现中,程序员可以规定GridBatch可以指派的组块数量。 在另一实现中,GridBatch管理员规定GridBatch可以指派的组块数量,和/或GridBatch基于可用的节点数量和/或其他系统配置资源考虑来确定GridBatch可以指派的组块数量。在一个实现中,GridBatch将最高可指派CID设置得比集群中节点数目N大得多。GridBatch使用系统级查找表来指示从CID到N翻译的映射。该翻译提供了对集群大小动态改变的支持,使得当配置停用节点以及附加节点加入集群时,GridBatch文件系统能够自动地重新平衡存储和工作负荷。换言之,文件系统维护CID到数据节点的映射,并当CID到数据节点映射改变时(例如,当数据节点加入和/或离开GridBatch集群102时),将数据自动移动到不同节点。
在一个实现中,GridBatch处理两种数据集,向量和索引向量(indexed vector)。类似于数据库表的记录,向量包括GridBatch认为彼此独立的记录集。向量中的记录可以遵守相同的模式,并且每个记录可以包括若干字段(类似于数据库栏)。与向量相反,但是类似于索引数据库表,索引向量中的每个记录还具有相关联的索引。例如,索引向量中记录的字段之一可以是索引向量的相关联索引,而索引可以是任何数据类型(例如,字符串或整数)。
当使用索引向量时,程序员定义应如何通过划分函数在组块上对数据进行划分。当需要写入新的数据记录时,文件系统调用划分函数来确定组块id,并将该新的数据记录追加至对应于该组块id的组块末端。在一个实现中,用户定义的划分函数采用如下形式:int[]partitionFunc(index X),其中X代表将被写入的记录的索引,而int[]指示整数数组。划分函数应用散列函数,以便将索引转换成在1到CID范围内的一个或多个整数,其中该CID指示数据记录将被存储的指派组块id(或多个id)。在另一实现中,划分函数可以采取如下形式:int[]partitionFunc(distributionkey X),其中X代表用于将被写入以代表要使用的优选处理器和/或处理器组的记录的分布关键字指示符。
在一个实现中,当用户请求创建用于新索引向量的新文件时, 用户向文件系统管理器提供用户定义的散列函数,其形式为int[]hashFunc(distributionkey X)。散列函数接受分布关键字作为输入,并产生从1到CID范围内的一个或多个整数。当写入新记录时,文件系统管理器调用散列函数,以确定将该新记录写入哪个划分。其结果是,GridBatch将索引向量进行划分,因为新记录是由文件系统管理器处理的。
作业调度系统包括主节点和多个从节点。主节点可使用主节点逻辑来实现主节点功能。从节点管理由主节点指派到从节点的任务的执行。主节点可使用主节点逻辑来将作业(例如,计算)细分成由程序员在程序中表达的很多较小任务。在一个实现中,主节点逻辑在集群中的从节点间分布任务,并监控这些任务以确保所有这些任务成功完成。在一个实现中,GridBatch将数据节点指定为从节点。因此,当主节点调度任务时,主节点可以在还保有将被处理的数据组块的那个节点上调度任务。GridBatch通过减小网络带宽依赖性而提高了计算性能,该网络带宽依赖性的减小是由于GridBatch将数据传输最小化并在节点本地对节点执行数据处理。
GridBatch提供通常使用的原语集,这些原语称为运算符,程序员可以用该原语来实现计算并行化。运算符处理将工作分布到多个节点的细节,由此避免了程序员解决与实现并行编程方案相关联的复杂问题的负担。程序员以类似于编写传统顺序程序的方式将运算符集引入程序。
GridBatch提供了五种运算符:分布、联接、卷积、递归和映射。分布运算符将源向量或源索引向量转换成具有目的索引的目的索引向量。转换涉及将数据从源数据节点传输到目的数据节点。分布运算符采取如下形式:Vector Distribute(vector V,FuncnewPartitionFunc),其中V代表将被转换的数据所在的向量,而newPartitionFunc代表划分函数,其指示GridBatch将在其处生成新向量的目的数据节点。在一个实现中,用户定义的划分函数采用int[]newPartitionFunc(index X)形式,其中X代表记录的索引,而int[]指 示整数数组。用户定义的划分函数返回与目的数据节点的列表相对应的数字列表。在一个实现中,分布运算符可以在所有节点上复制向量,使得每个节点具有准确拷贝以方便的进行本地处理。在所有节点上复制向量可以在newPartionFunc返回作为目的节点的所有数据节点的列表时发生。
联接运算符取得两个索引向量,并在索引字段匹配的情况下合并对应的记录。GridBatch识别具有匹配索引的对应记录并调用用户定义的联接函数。用户定义的联接函数可以简单地合并两个记录(例如,类似于数据库联接),但是通常可以实现任何期待的功能。联接运算符采用以下形式:Vector Join(Vector X,Vector Y,FuncjoinFunc),其中X和Y代表将要联接的索引向量,而joinFunc表示用户定义的将要应用于索引向量中对应记录的联接函数。联接运算符产生新的向量,其包括应用用户定义的函数的结果。用户定义的联接函数采用如下形式:Record joinFunc(Record Z,Record K),其中Z和K分别代表向量X和Y的记录。当GridBatch调用用户定义的函数时,GridBatch可以确保用于记录Z和K的索引相匹配。
GridBatch可以在执行联接操作之前执行分布操作,使得GridBatch通过在联接随后将使用的同一索引字段上使用划分函数来对向量X和Y进行划分。联接运算符在每个节点本地执行联接,而不用确定GridBatch是否将数据分布或取回至每个节点。在一个实现中,联接运算符在执行联接之前会自动执行分布运算符。
联接运算符可以在当索引字段中存在准确匹配时使用。然而,当程序员期待识别联接运算符的相反结果(例如,识别不匹配记录)时,针对每个记录K检查每个记录Z。卷积运算符识别匹配的Z和K记录,并将用户定义的函数应用于每个匹配。卷积运算符提供了附加能力,并将更多的计算选项提供给程序员。在一个实现中,涉及两个向量的所有计算操作可以通过卷积运算符来完成。卷积运算符可以使用任何向量字段针对非索引的向量和索引向量执行联接函数,即使当联接将非索引字段用于联接时也是如此。卷积运算符采 用以下形式:vector Convolution(vector X,vector Y,func convFunc),其中X和Y代表两个输入向量,而convFunc代表程序员提供的用户定义的卷积函数。作为结果,卷积运算符产生新的向量。用户定义的函数采用以下形式:Record convFunc(record Z,record K),其中Z和K分别代表向量X和Y的记录。convFunc函数确定是否应该采取任何行动(例如,确定记录Z是否匹配记录K),并随后执行对应的动作。
GridBatch可以在执行卷积运算符之前执行分布运算符,使得GridBatch在卷积随后可以使用的同一索引字段上对向量X和Y进行划分。卷积运算符在每个节点本地执行计算,而不用确定GridBatch是否将数据分布或取回到每个节点。在其他实现中,卷积运算符在执行卷积之前自动执行分布运算符。
作为一个示例,程序员可能希望确定零售商的经销商附近的客户数量。GridBatch文件系统将生成客户向量和经销商向量,其中客户向量包括指示每个客户物理位置的物理位置字段,而经销商向量包括指示每个经销商物理位置的物理位置字段。程序员可以使用GridBatch,以基于客户向量和经销商向量的物理位置字段而合并客户向量和经销商向量。程序员可以使用convFunc,以基于程序员指定的相邻性来评价每个客户和每个经销商之间的物理距离,并将符合该相邻性的每个记录存储在结果向量中。
在一个实现中,GridBatch递归运算符执行归约运算,其取得向量的所有记录并将它们合并至单个结果。针对向量的记录执行的实际逻辑运算是由用户定义的函数定义的。加法是归约运算(reduceoperation)的示例,其中向量的所有记录相加在一起。排序是归约运算的另一示例,其中向量的所有记录都针对彼此进行检查,以产生期待的顺序。递归运算符在很多节点间扩展该归约运算。Web应用通常频繁地执行归约操作(例如,数字计数,其中每个单词需要归约操作以将出现次数相加),这与很少执行归约运算的大多数分析应用相反。大多数分析应用的归约运算符成为瓶颈,并当程序员仅 仅需要排序后的输出以供报告或少量统计时限制了应用的升级性。很多归约运算表现出了可交换和可结合特性,并且可以独立于顺序来执行。
例如,对事件出现次数进行计数涉及公知为加法的可交换和可结合运算符。加法出现的顺序不会影响最后的结果。类似地,排序可以独立于顺序。GridBatch递归运算符执行顺序独立的归约运算并采取以下形式:Record Recurse(Vector X,Func recurseFunc),其中X代表要归约的输入向量,而recurseFunc代表要应用的用户定义递归函数。递归运算符将向量合并至单个记录。用户定义的函数recurseFunc采用以下形式:Record recurseFunc(Record Z1,RecordZ2),其中Z1和Z2代表来自于向量X的两个子部分合并的部分结果。recurseFunc函数规定如何进一步合并两个部分结果。
例如,在向量X代表整数的向量,以及程序员希望计算整数的和的情况下,则程序员将加法函数用作用户定义的recurseFunc函数,表示为:Record addition(Record Z1,Record Z2){return new Record(Z1.value()+Z2.value());}。GridBatch对向量X的记录递归地应用加法函数,以最终计算向量中整数的总和。
在另一示例中,向量X包括代表字符串的排序后列表的记录,而程序员希望对字符串进行排序以供最终报告。表1示出了GridBatch可如何实现用于排序字符串的用户定义函数。用户定义的函数将字符串的两个排序后的列表合并成一个排序后的字串,并当程序员实现将被递归调用的用户定义函数时,用户定义的函数实现合并排序算法。
  表1-用于排序的用户定义函数
Record mergeSort(Record Z1,Record Z2)  {new Record Z;   //来自记录Z1的下一字符串   String a=Z1.next();   //来自记录Z2的下一字符串
[0056] 
  String b=Z2.next();  do{   if(a<b){        Z.append(a);        a=Z1.next();   }   else{        Z.append(b);        b=Z2.next();  }  }while(!Z1.empty()&&!Z2.empty());  return x; }
递归在很多节点上将归约运算并行化。另外,递归将需要部分结果的操作的网络业务最小化。例如,在程序员需要识别带来利润的前十大客户的情况下,每个节点计算本地的前十大客户,并将结果(例如,部分结果)转发到相邻节点,这些相邻节点接着将这些部分结果与接收节点的本地结果合并,以产生前十大。每个节点仅将前十大记录传递到特定相邻节点,而不是将每个节点的每个记录传递到执行归约操作的单个节点。因此,递归运算符避免较大带宽需求和不期待的网络业务,并提供了较高的计算性能。
映射运算符将用户定义的映射函数应用到向量的所有记录。该映射运算符采用如下形式:Vector Map(vector V,Func mapFunc),其中V代表向量,更具体地,代表向量该mapFunc将被应用于其上的记录。用户定义的映射函数可以采取如下形式:RecordmapFunc(Record X)。用户定义的函数mapFunc接受输入向量的一个记录作为变元,并产生用于结果向量的新记录。
块运算符通过将用户定义的bloFunc函数应用于向量组块的记录,来利用块级别的并行性。块运算符采用以下形式:Vector BLO (vector X,Func bloFunc),其中X是输入向量,而bloFunc是用户定义的函数。用户定义的函数bloFunc可以采用以下形式:bloFunc(Iterator records)。用户定义的函数bloFunc接受记录的列表(例如,Iterator)作为变元,用户定义的函数将对其应用。记录列表中的记录用于给定划分(例如,向量组块)。bloFunc可以以记录写入划分(例如,向量组块)的顺序相同的顺序返回向量X的记录,使得可以为划分的记录确定有序序列(例如,排名)。用户定义的bloFunc函数应用于输入Iterator中记录的列表,以便获得用于新向量Z的块函数评价记录。
在一个实现中,GridBatch通过在从节点不能完成任务时重新执行任务来容忍从节点失败和错误。向量的每个向量组块在指定为备份节点的X个不同从节点上复制X次,其中X是用户可以指定的和/或GridBatch可以基于配置、可用资源和/或历史观察确定的常数。在任何运算符计算期间,如果从节点在完成所指派任务之前失效,则主节点被通知,并且该主节点在保有该向量组块的备份拷贝的从节点上开始另一过程。当没有从从节点接收到周期性心跳时,主节点将从节点标识为失效从节点。
图1示出了GridBatch系统配置100(GridBatch),其包括GridBatch集群102、应用104和用户接口106。GridBatch 100组件通过网络108(例如,互联网、局域网、广域网或任何其他网络)通信。GridBatch集群102包括多个节点(例如,主节点116和从节点120)。每个从节点120可以包括通信接口113和存储器118。GridBatch100指明主节点116,将其余节点指定为从节点(例如,从节点120)。GridBatch 100可以将从节点指定为数据节点(例如,数据节点134),以下进一步描述。从节点120使用从节点逻辑160来管理主节点116指派给从节点120的从任务158的执行。
图2示出了示例性主节点116。主节点116可以包括通信接口211和存储器215。GridBatch 100使用文件系统管理器逻辑222来在GridBatch集群102中所有节点上管理并存储文件。在一个实现中, 文件系统管理器逻辑222将大型文件分段为较小组块,并将这些组块在从节点间存储。文件系统管理器逻辑222维护CID到数据节点的映射,并当CID到数据节点映射改变时(例如,当数据节点加入和/或离开GridBatch集群102时)自动将数据移动到不同节点。GridBatch 100使用作业调度器逻辑230来协调GridBatch集群102中所有节点之间的操作。
在GridBatch集群102中所有节点间,GridBatch 100可以将主节点116指定为命名节点232,以及指定所有其他节点充当数据节点(例如,数据节点134)。命名节点232保有文件系统240的命名空间238。命名节点232维护文件到对应向量组块的列表的向量映射242、指派给每个组块的数据节点,和每个数据节点的物理和逻辑位置。命名节点232还对针对文件位置的任务请求244进行响应。在一个实现中,命名节点232将大型文件的组块分配至数据节点。
主节点116将程序员在程序中表达的任务252(例如,计算)细分成作业调度器逻辑230在从节点间分布的从任务(例如,从任务158)。在一个实现中,主节点116在GridBatch集群102中的从节点间分布从任务,并监控这些从任务以确保所有任务成功完成。因此,当主节点116调度任务252时,主节点116可以在还保有待处理的数据组块的从节点上的从任务(例如,从任务158)。例如,在待处理的数据驻留在向量组块本地的情况下,主节点116可以将任务252分解成对应于从节点的从任务,使得GridBatch 100通过减小网络带宽依赖性来增大计算性能,其中减小网络带宽依赖性是通过将数据传输最小化以及在节点本地对数据执行数据处理而实现的。
在一个实现中,GridBatch 100在主节点116上实现主节点逻辑260,其协调GridBatch集群102、应用104和用户接口106之间的通信和交互。主节点逻辑260可以协调并控制文件系统管理器逻辑222和作业调度逻辑230。主节点逻辑260可以维护GridBatch软件库262,其包括分布运算符逻辑264、联接运算符逻辑266、卷积运算符逻辑268、递归运算符逻辑270、映射运算符逻辑278和块运算 符逻辑280。主节点116可以接收任务请求244,并通过从节点和从节点逻辑160协调任务请求244的执行。
图3示出了在处理分布函数调用300(例如,任务请求244)并实施分布运算符逻辑264期间的GridBatch 100。在一个实现中,主节点116接收分布函数调用300,以执行具有参数的分布运算符,其中这些参数包括第一向量标识符272,其标识将被重新分布以获得在节点集中重新分布的重新分布向量组块的第一向量。例如,第一向量可以代表具有在节点集(例如,分别为从节点1328、从节点3330和从节点6332)上分布的向量组块V1C1 308、V1C2 310和V1C3 312的之前分布的向量。向量组块V1C1 308、V1C2 310和V1C3 312分别包括对应的向量组块记录V1C1R1-V1C1RX 322、V1C2R1-V1C2RY 324和V1C3R1-V1C3RZ。
主节点逻辑260通过在具有第一向量组块的每个节点集(例如,分别为从节点1328、从节点3330和从节点6332)上产生划分任务334来发起执行。箭头336代表节点状态的转变,其中具有第一向量组块的每个节点运行划分任务334。第一向量组块的每个向量组块V1C1308、V1C2310和V1C3312的记录可以由对应的划分任务334来评价,以便确定目的向量组块指派。例如,每个划分任务334可以评价驻留在对应从节点上的第一向量组块记录,以便确定目的向量组块位置,从而重新分布每个第一向量组块记录。在将要重新分布第一向量组块记录的情况下,每个划分任务334可以在用于每个目的向量组块位置(例如,目的向量组块指派)的对应从节点上创建目的向量组块指派文件(例如,V1C1F1338、V1C2F1-V1C2F4-V1C2F3-V1C2F6340和V1C3F1-V1C3F2-V1C3F5-V1C3F6342)。
主节点116可以在每个划分任务334完成时从每个划分任务334接收完成通知。主节点116通过在每个从节点(例如从节点1328、从节点3330、从节点4346、从节点5348、从节点6332和从节点8350)上产生重新分布任务334而发起执行重新分布任务。箭头346代表节点状态的转变,其中对应于目的向量组块的每个节点运行重 新分布任务334。目的地向量块(例如,V1C1 352、V1C2 354、V1C3356、V1C4 358、V1C5 360以及V1C6 362)通过由向量块指派文件(例如,V1C1F1 338、V1C2F1-V1C2F4-V1C2F3-V1C2F6 340以及V1C3F1-V1C3F2-V1C3F5-V1C3F6342)标识的向量块位置来指示。重新分布任务344发起向量组块指派文件到对应的目的从节点的远程拷贝,以便将向量组块指派文件配置在对应于指派给从节点的向量组块(例如,V1C1F1-V1C3F1-V1C2F1364、V1C3F2368、V1C2F3370、V1C2F4372、V1C3F5374和V1C3F6-V1C3F6376)的从节点上。
重新分布任务344发起位于对应于特定目的向量组块的每个向量组块指派文件中的记录(例如,V1C1R1-V1C1RX 382、V1C2R1-V1C2RY384、V1C3R1-V1C3RZ386、V1C4R1-V1C4RQ 388、V1C5R1-V1C5RS 390和V1C6R1-V1C6RT 392)的合并378。箭头380表示节点状态的转变,其中对应于目的向量组块的每个节点执行合并378。合并378导致在节点集中重新分布的第一向量的重新分布的向量组块。每个从节点的从节点逻辑160向主节点116发送完成通知,该通知指示合并378的完成状态。
图4示出了在处理联接函数调用400(例如,任务请求244)和实施联接运算符逻辑266期间的GridBatch 100。在一个实现中,主节点116接收具有参数的联接函数调用400,这些参数包括第一向量标识符272和第二向量标识符274以及用户定义的联接函数(例如,用户定义的函数276)。第一向量标识符272和第二向量标识符274标识划分成第一向量组块(例如,V1C1 404、V1C2 406和V1C3 408)和第二向量组块(例如,V2C1 410、V2C2 412和V2C3 414)的第一向量和第二向量。第一向量组块和第二向量组块分别包括第一向量组块记录(例如,V1C1R1-V1C1RZ 416、V1C2R8-V1C2RJ 418和V1C3R4-V1C3RL 420)和第二向量组块记录(例如,V2C1R3-V2C1RY422、V2C2R7-V2C2RK 424和V2C3R4-V2C3RM 426)。
主节点116在对应于第一向量组块和第二向量组块的位置的节 点集(例如,从节点1428,从节点4430和从节点6432)本地发起排序任务(例如,从任务158),以便对节点集的每一个,对第二向量的第二向量组块和第一向量组块的每一个进行排序。在一个实现中,排序任务434根据分别出现在第一向量的每个第一向量记录(例如,V1C1R1IF-V1C1RZIF 438、V1C2R8IF-V1C2RJIF 440和V1C3R4IF-V1C3RLIF 442)中的联接索引字段的索引值和第二向量的每个第二向量记录(例如,V2C1R3IF-V2C1RYIF 444、V2C2R7-V2C2RKIF 446和V2C3R4-V2C3RMIF 448)的联接索引字段的索引值,对第一向量记录和第二向量记录进行排序。箭头436表示节点状态的转变,其中具有向量组块的每个节点运行排序任务434。
在一个实现中,排序任务434将第一向量记录中出现的索引字段的索引值与第二向量记录中出现的索引字段的索引值相比较,以确定包括匹配索引值的第一向量记录和第二向量记录,并将用户定义的函数276(例如,用户定义的联接函数)应用于具有匹配索引字段值的第一向量记录和第二向量记录。排序任务434执行匹配任务450,其将第一向量记录的索引字段的索引字段值与第二向量记录的索引字段的索引字段值进行比较。箭头452代表节点状态的转变,其中具有向量组块的每个节点运行匹配任务450。匹配任务450将用户定义的函数276(例如,用户定义的联接函数)应用于具有用于对应向量组块(例如,V1C2RBIF 454和V2C2RPIF 456、和V1C2RBIF458和V2C2RPIF 460)的匹配索引字段值的第一向量记录和第二向量记录,以获得联接函数组块结果(例如,“无JFC1R”462、JFC2R464和JFC3R 466)。当用于对应向量组块的索引字段值不匹配时(例如,V1C1RXIF 468和V2C1RYIF 470),匹配任务450不将用户定义的联接函数应用于第一向量记录和第二向量记录。
联接函数组块从联接函数向量结果产生,其识别包括从联接函数组块结果(例如,JFC2R 464和JFC3R 466)获得的联接函数向量组块记录(JFVC1RT 480和JFVC2R3-JFVC2RN 482)的联接函数向量组块(例如,JFVC1 476和JFVC2 478)。在一个实现中,每个从 节点的从节点逻辑160向主节点116发送完成通知,其指示排序任务434的完成状态。
例如,在一个实现中,程序员可以使用GridBatch 100来索引两个向量,即,由产品id字段(例如,索引字段V1C1R1IF-V1C1RZIF438、V1C2R8IF-V1C2RJIF 440和V1C3R4IF-V1C3RLIF 442)索引的产品向量(例如,由第一向量标识符272标识的第一向量)和由客户id字段(例如,索引字段V2C1R3IF-V2C1RYIF 444、V2C2R7-V2C2RKIF 446和V2C3R4-V2C3RMIF 448)索引的客户向量(例如,由第二向量标识符274标识的第二向量)。产品向量包括产品id和对应于所购买产品(例如,索引字段值)的客户id。客户向量保有客户id和客户的人口统计学信息(例如,索引字段值,诸如年龄、地址、性别)。如果程序员想要知道购买特定产品的每个年龄组中有多少人,则程序员利用产品向量和客户向量作为参数调用联接函数调用,以获得将产品ID信息与客户人口统计学信息联系在一起的联接结果。在一个实现中,为了确保GridBatch 100在基于客户id字段(例如,索引字段)处理产品向量和客户向量的联接函数调用400中获得最高性能,程序员调用分布函数调用300来用客户id索引产品向量,而不是产品id。分布函数调用确保GridBatch 100根据客户id字段将产品向量的记录分布至GridBatch集群102中的节点。在产品向量和客户向量的客户id字段值相等以获得联接函数向量结果的情况下,GridBatch 100随后可以将用户定义的函数276(例如,用户定义的联接函数)应用于产品向量和客户向量的每个记录。
图5示出了在处理卷积函数调用500(例如,任务请求244)和实施卷积运算符逻辑268期间的GridBatch 100。在一个实现中,主节点116接收具有参数的卷积函数调用500,这些参数包括第一向量标识符272和第二向量标识符274和用户定义的卷积函数(例如,用户定义的函数276)。第一向量标识符272和第二向量标识符274标识被划分成第一向量组块(例如,V1C1 504和V1C2 506)和第二向量组块(例如,V2C1 508和V2C2 510)的第一向量和第二向量, 这些组块对应于在GridBatch集群102的节点间分布的划分向量块。第一向量组块和第二向量组块分别包括第一向量组块记录(例如,V1C1R1-V1C1RZ 512和V1C3R4-V1C3RL 514)和第二向量组块记录(例如,V2C1R3-V2C1RY 516和V2C3R4-V2C3RM 518)。
主节点116在对应于第一向量组块和第二向量组块的位置的节点集(例如,从节点1520和从节点8522)本地发起卷积任务524(例如,从任务158)的产生。箭头526表示用于每个节点的节点状态的转变,其中主节点116产生卷积任务524。卷积任务524在本地将用户定义的函数276(例如,用户定义的卷积函数)应用于第一向量组块记录和第二向量组块记录的置换(permutation)(例如,528和530)。用户定义的卷积函数评价对应第一向量组块记录和第二向量组块记录(例如,528和530)的每个置换,以获得卷积函数评价结果(例如,536、538、540和542)。箭头534代表用于每个节点的节点状态的转变,其中用户定义的卷积函数评价对应第一向量组块记录和第二向量组块记录的每个置换。卷积函数评价结果可以指示相应的第一向量组块记录和第二向量组块记录的置换何时产生卷积函数组块结果记录(例如,CFC1R1-CFC1R3-CFC1R4-CFC1RZ 536和CFC2R3-CFC2RK 540)。卷积函数评价结果可以指示对应第一向量组块记录和第二向量组块记录的置换何时产生无卷积函数组块结果记录(例如,“无CFC1 RX”538和“无CFC2RY”542)。用户定义的卷积函数可以将卷积函数结果转换成卷积函数组块结果记录(例如,CFVC1R1-CFVC1R3-CFVC1R4-CFVC1RZ 548和CFVC2R3-CFVC2RK 550),以获得用于每个节点(例如,从节点1520和从节点8522)的卷积函数结果。
例如,在一个实现中,程序员可以调用卷积函数调用500来确定位于零售商的经销商附近的客户数量。文件系统管理器逻辑222可以包括客户向量(例如,由第一向量标识符272标识的第一向量)和经销商向量(例如,由第二向量标识符274标识的第二向量),其中所述客户向量包括指示每个客户的物理位置的物理位置字段, 所述经销商向量包括指示每个经销商的物理位置的物理位置字段。程序员可以调用卷积函数调用500,来基于物理位置字段将用户定义的卷积函数(例如,用户定义的函数276)应用于客户向量和经销商向量,以评价每个客户和每个经销商之间的物理距离并获得卷积函数结果向量。在一个实现中,用户定义的卷积函数可以表示为convFunc。在卷积调用前,客户向量可以划分成客户向量组块(例如,第一向量块V1C1 504和V1C2 506),这些组块根据出现在每个客户向量记录中的物理位置字段(例如,索引字段)在GridBatch集群102的节点上划分。经销商向量组块(例如,第二向量组块V2C1508和V2C2 510)可以拷贝到集群的所有节点中。这可以通过提供总是将所有节点列表返回分布运算符的划分函数来实现。用户定义的卷积函数评价驻留在对应从节点上的客户向量记录和经销商向量记录的置换,以获得卷积函数组块结果记录。换言之,在客户向量组块具有Z个记录而经销商向量组块具有K个记录的情况下,用户定义的卷积函数可以评价Z×K个置换,其中对于客户向量组块中从1到Z的每个记录,GridBatch 100将用于定义的卷积函数应用于经销商向量组块的从1到K的每个记录。GridBatch集群102的每个从节点执行的卷积函数调用的结果产生了对应卷积函数向量组块,以便获得用于每个节点(例如,从节点1520和从节点8522)的卷积函数结果。
图6示出了在处理递归函数调用600(例如,任务请求244)和实施递归运算符逻辑270期间的GridBatch 100。在一个实现中,主节点116接收具有参数的递归函数调用600,这些参数包括第一向量标识符272和用户定义的卷积函数(例如,用户定义的函数276)。第一向量标识符272标识被划分成第一向量组块(例如,V1C1 604、V1C2 606和V1C3 610)的第一向量,这些组块对应于在GridBatch集群102的节点间分布的划分向量块。第一向量组块包括第一向量组块记录(例如,V1C1R1-V1C1RX 616、V1C1R3-V1C1RJ 618、V1C2R1-V1C2RY 620、V1C2RK-V1C2RN 622、V1C3R4-V1C3RZ 624 和V1C3RG-V1C3RM 626)。
主节点116在对应于第一向量组块的位置的节点集(例如,从节点1628、从节点4630和从节点6632)本地发起递归任务634(例如,从任务158)的产生。箭头636表示节点状态的转变,其中具有第一向量组块的每个节点运行递归任务634。递归任务634最初将用户定义的递归函数应用于第一向量组块记录,以产生用于每个第一向量组块(例如,IRV1C1R1638、IRV1C1R2640、IRV1C2R1642、IRV1C2R2644、IRV1C3R1646和IRV1C3R2648)的中间递归向量组块结果。递归任务对中间递归向量组块结果调用用户定义递归函数,以产生中间递归从节点结果(例如,IRSN1R 650、IRSN4R 652和IRSN6R 654)。
递归任务将中间递归从节点结果(例如,IRSN1R 650)传达至节点集的子集(例如,从节点4630),并且递归任务在中间结果(例如,IRSN1R 650和IRSN4R 652)上迭代调取用户定义的递归函数,以产生越来越少的中间从节点结果(例如,IFIRSN4R 660)。递归任务将越来越少的中间结果的子集(就例如,IFIRSN4R 660)传达至越来越小的节点集的子集(例如,从节点6632),直到GridBatch100在节点集中的最终节点上获得最终递归结果(例如,FRR 668)为止。
在一个实现中,递归任务传达至节点集的子集的中间结果的子集包括产生越来越少中间结果的子集的中间结果的二分之一。类似地,随后由递归任务传达至节点集的子集的越来越少的中间结果的每个子集包括越来越少的中间结果的二分之一。在一个实现中,递归运算符逻辑270使用网络拓扑信息,通过识别为了减少网络带宽消耗可以发送和/或取回中间结果的附近邻居从节点,来改进递归运算符的计算性能。程序员、用户和/或GridBatch 100可以定义确定从节点是否构成另一从节点的附近邻居从节点的因素。可以用来确定从节点是否被指定为附近邻居从节点的因素可以包括从节点之间的数据传输时间、从节点之间的网络跳数(例如,网络路由器的数量), 或者数据传输时间与网络跳数的组合。
图6示出了GridBatch递归运算符逻辑270在GridBatch集群102的从节点间如何分布中间结果。从节点可以计算本地中间递归结果(例如,IRSN1R 650、IRSN4R 652和IRSN6R 654)。从节点的子集(例如,从节点1628)可以将本地中间递归结果(例如,IRSN1R650)传输至从节点的子集(例如,从节点4630)。从其他从节点接收中间递归结果的从节点可以迭代地将传输的中间结果(例如,IRSN1R 650)应用于本地中间结果(例如,IRSN4R 652)。在单个从节点(例如,从节点6632)产生最终递归结果(例如,FRR 688)之前,迭代地从节点的子集(例如,二分之一)将中间结果传送至具有本地中间结果(例如,将传输的中间结果放入本地中间结果)的另一半节点。在一个实现中,主节点确定用于将中间结果递送到节点集中从节点的机制、以及产生最终递归结果(例如,FRR 668)所需的放入迭代次数。
图7示出了GridBatch 100可以用来执行分布运算符的逻辑流。在一个实现中,主节点116接收分布函数调用300以执行分布运算符。在一个实现中,分布函数调用300可以表示为Distribute(vectorV,func newPartitionfunc)。向量V表示源向量,newPartitionfunc表示为向量V中数据确定新节点位置的函数。图7和此处的讨论使用向量U以利用符号帮助解释向量V中数据的分布。向量V与向量U包含相同的数据。分布函数调用300的结果是剩下一个向量,其可能划分成可以重新分布在不同节点集中的新组块。主节点逻辑260产生对应于向量V的每个向量组块的从任务(例如,从任务158)(702)。在一个实现中,从任务的数量等于向量V的向量组块的数量。从任务驻留在对应的向量组块所驻留的从节点上(704)。将从任务定位于对应的向量组块所驻留的从节点将数据传输最小化,并避免了网络带宽升级问题。从节点调用从节点逻辑212,以生成对应于向量U的向量组块的输出文件,其中GridBatch 100将重新分布向量V的记录(706)。从节点逻辑160评价V的对应向量组块的每 个记录,以确定向量U的组块标识符,其中GridBatch 100将重新分布该记录。从节点逻辑160将记录写入对应于向量U的向量组块的输出文件,其中GridBatch 100将重新分布向量V的记录。
随着每个从任务完成了V的对应向量组块的记录的评价,每个从任务将从任务的完成状态和对应于向量U的向量组块的输出文件的位置通知给住节点逻辑260(708)。主节点逻辑260在从节点上产生新的从任务,GridBatch 100将向量V的向量组块重新分布至向量U的向量组块(710)。每个从任务接收输出文件的位置的列表,其包括对应于与从任务相对应的从节点的U的向量组块;并将输出文件取回至从节点(例如,使用远程拷贝操作或其他文件传输)。每个从任务将输出文件合并到U的对应向量组块中,并将从任务的完成状态通知给主节点逻辑260(712)。在一个实现中,分布函数调用300将第一向量的所有记录分布至所有可用的从节点。例如,表示为Distribute(vector V,func newPartitionfunc)的分布函数调用300的newPartitionfunc可以指引GridBatch 100将向量V的每个记录分布至所有可用的从节点,以在所有可用从节点上复制向量V。
图8示出了GridBatch 100可以用来执行联接运算符的逻辑流。在一个实现中,主节点逻辑260接收联接函数调用400以联接向量X和向量Y。在一个实现中,联接函数调用400可以表示为Vector Join(vector X,vector Y,FuncjoinFunc)(802)。主节点逻辑260产生对应于向量组块号(例如,向量组块id)的从任务,其中文件系统管理器逻辑222将向量X和向量Y划分成等量的向量组块,以及文件系统管理器逻辑222将对应的组块号或向量组块id指派给X的向量组块和Y的向量组块(804)。例如,文件系统管理器逻辑222可以将特定组块id指派给驻留在对应从节点上的X的向量组块和Y的向量组块。在一个实现中,从任务根据索引字段值对驻留在对应从节点上的X的向量组块的记录和Y的向量组块的记录进行排序(806)。从任务调用从节点逻辑160,并评价X的向量组块的记录的索引字段值和Y的向量组块的记录的索引字段值。在X的向量组块的记录 的索引字段值和Y的向量组块的记录的索引字段值相等的情况下(808),GridBatch 100调用用户定义的联接函数(例如,用户定义的函数276)。在一个实现中,用户定义的联接函数可以表示为RecordjoinFunc(Record Z,Record K),其将X的向量组块的记录和Y的向量组块的记录联接起来(814)。在从节点逻辑160评价X的向量组块的记录Z的索引字段值小于Y的向量组块的记录K的索引字段值时,则从节点逻辑160评价X的向量组块的下一记录Z与Y的向量组块的记录K的索引字段值(810)。在从节点逻辑160评价X的向量组块的记录Z的索引字段值大于Y的向量组块的记录K的索引字段值的情况下,从节点逻辑160评价Y的向量组块的下一记录K与X的向量组块的记录Z的索引字段值(812)。从节点逻辑160评价X的向量组块的每个记录Z与Y的向量组块的记录K(816)。
图9示出了GridBatch 100可以用来执行卷积运算符的逻辑流。在一个实现中,主节点逻辑260接收卷积函数调用500以处理向量X和向量Y(902)。在一个实现中,卷积函数调用500可以表示为Vector Convolution(vector X,vector Y,Func convFunc),其中ConvFunc是用户定义的卷积函数。对于向量X的向量组块的每个记录1-Z,主节点逻辑260将用户定义的卷积函数(例如,用户定义的函数276)(表达为Record convFunc(Record Z,Record K))应用于向量Y的向量组块的记录1-K(904)。换言之,在向量X的向量组块具有Z个记录且向量Y的向量组块具有K个记录时,用户定义的卷积函数评价记录配对的Z×K个置换。从节点逻辑160将用户定义的卷积函数应用于向量Y的每个记录1-K(906)与向量X的每个记录1-Z(908)。
图10示出了GridBatch 100可以用来执行递归运算符的逻辑流。在一个实现中,主节点逻辑260接收对递归向量X的递归函数调用600。在一个实现中,递归函数调用600可以表达为Record Recurse(vector X,Func recurseFunc)。主节点逻辑260产生与驻留在对应从节点上的每个向量组块相对应的递归运算从任务。从任务调用从节点 逻辑160以归约(例如,合并)驻留在对应从节点上的向量X的向量组块的第一记录和第二记录。从节点逻辑160存储中间递归(例如,合并器)结果(1004)。从节点逻辑160评价是否存在向量X的向量组块的多个记录(1006),并将向量X的向量组块的下一记录合并至中间合并结果(1008)。一旦从节点逻辑160获得向量X的向量组块的中间合并结果,每个从任务将从任务的完成状态通知给从节点逻辑260(1010)。从任务的子集(例如,二分之一)发送中间合并结果给具有本地中间结果的其余从任务(例如,另外二分之一)。接收中间合并结果的从任务的子集将中间合并任务与本地中间合并结果相合并(1012)。具有中间合并结果的从节点迭代地将中间合并结果放入较少的从节点,直到从节点将越来越少量的中间合并结果并入一个从节点上驻留的最终合并结果(1014)。
图11示出了在处理映射函数调用1100(例如,任务请求244)以及实施映射运算符逻辑278期间的GridBatch 100。映射运算符可以表示为Vector Map(vector V,Func mapFunc),其中V代表向量,更具体地,代表将对其应用mapFunc以获得向量V的映射记录的新向量的向量记录。映射运算符允许用户将用户定义的函数应用于向量的所有记录。在一个实现中,主节点逻辑260接收具有参数的映射函数调用1100,这些参数包括第一向量标识符272和用户定义的映射函数(例如,用户定义的函数276)。第一向量标识符272识别被划分成第一向量组块的第一向量(例如,V1C1 1104、V1C2 1108和V1C3 1110),这些向量组块对应于在GridBatch集群102的节点上分布的已划分向量组块。第一向量组块包括第一向量组块记录(例如,V1C1R1 1116、V1C1RX 1118、V1C2R1 1120、V1C2RY 1122、V1C3R4 1124、和V1C3RZ 1126)。
主节点116在对应于第一向量组块的节点集(例如,从节点11128、从节点41130和从节点61132)本地发起产生映射任务(例如,从任务158)。箭头1136代表节点状态的转变,其中具有第一向量组块的每个节点运行映射任务1134(例如,并行运行的映射任 务1150、1152和1154)。映射任务1134将用户定义的映射函数应用于第一向量组块的每一个,以产生形成向量M的映射后的向量组块的映射后向量组块。箭头1158表示节点状态的转变,其中具有第一向量组块的每个节点包括具有对应的已映射向量组块记录(例如,VMC1R1 1166、VMC1RX 1168、VMC2R1 1170、VMC2RY 1172、VMC3R4 1174、和VMC3RZ 1176)的对应的已映射向量组块(例如,VMC1 1160、VMC2 1162、和VMC3 1164)。
例如,销售记录向量1180可以包括客户ID、产品ID和购买时间字段,以及若干其他字段。然而,对于特定分析,仅对销售记录向量的两个字段(诸如客户ID和产品ID)是感兴趣的。为了高效处理性能,程序员可以调用映射函数调用1100来执行映射运算符,以便只从销售记录向量提取客户ID字段和产品ID字段;映射函数调用1100可以用以下形式表示:Vector newVector=Map(saleRecordVector,chop)。用户定义的chop函数对销售记录向量1180的每个记录进行解析,以产生只包括newVector 1182记录中客户ID字段和产品ID字段的新记录。
图12示出了GridBatch 100可以用来执行映射运算符的逻辑流。主节点逻辑260将映射函数调用1100接收至映射向量V(1202)。主节点逻辑260产生对应于向量V的每个向量组块的从任务(1204)。从任务调用从节点逻辑160来定位指派给对应的从节点的向量V的每个向量组块(1206)。对于向量V的每个向量组块,从节点逻辑160将用户定义的mapFunc应用于每个向量组块记录,以产生形成向量M的映射后的向量组块的映射后的向量组块记录(1208)。一旦从节点逻辑160已经将mapFunc应用到向量V的每个向量组块记录,则每个从任务将从任务的完成状态和M的对应映射后的向量组块的位置通知给主节点逻辑260。映射运算符在从节点向主节点通知所有从任务已完成时成功完成(1210)。向量M的已映射向量组块组合以形成新的向量M。
图13示出了在处理块函数调用1300(例如,任务请求244)实 施块运算符逻辑280期间的GridBatch 100。块运算符可以表示为Vector BLO(Vector X,Func bloFunc),其中X代表输入向量,更具体地,代表向量X的记录,bloFunc将对其进行应用以获得块函数评价结果,该结果代表用于形成新向量Z的块函数评价记录的值。块运算符允许用户将用户定义的函数应用于向量组块的所有记录。在一个实现中,主节点逻辑260接收具有参数的块函数调用1300,这些参数包括第一向量标识符272和用户定义的bloFunc函数(例如,用户定义的函数276)。第一向量标识符272识别划分成第一向量组块的第一向量(例如,V1C1 1304、V1C2 1308和V1C3 1310),这些向量组块分布在GridBatch集群102的节点上。第一向量组块包括第一向量组块记录(例如,V1C1R1 1316、V1C1RX 1318、V1C2R1 1320、V1C2RY 1322、V1C3R4 1324、和V1C3RZ 1326)。
主节点136在对应于第一向量组块的节点集(例如,从节点11328、从节点41330和从节点61332)本地发起块任务(例如,从任务158)的产生。箭头1336代表节点状态的转变,其中具有第一向量组块的每个节点运行块任务1334(例如,并行运行的块任务1350、1352和1354)。块任务1334将用户定义的bloFunc函数应用于第一向量组块记录的每一个,以产生用于第一向量组块的每一个的块函数评价结果。块函数评价结果(例如,VBC1 1360、VBC2 1362、和VBC3 1364)代表用于块函数评价记录(例如,VBC1R1 1366、VBC2R1 1368、和VBC3R1 1370)的值,这些记录形成新向量Z。箭头1358表示节点状态的转变,其中具有第一向量组块的每个节点包括具有对应的块函数评价结果(例如,VBC1 1360、VBC2 1362、和VBC3 1364),这些结果是用于向量Z的块函数评价记录(例如,VBC1R1 1366、VBC2R1 1368、和VBC3R1 1370)的值。例如,用户定义的bloFunc函数可以对向量X 1372的每个向量组块的记录数量计数,以形成新向量Z的块函数评价记录1374。
表2示出了GridBatch如何实现用户定义的bloFunc函数以对划分(例如,向量组块)内记录数量进行计数。当程序员实现将被递 归调用的用户定义的bloFunc函数(如表2所示)时,用户定义的函数实现计数划分算法。例如,用户定义的bloFunc函数可以接受向量分组的记录的迭代子(iterator)、对输入迭代子中记录数量进行计数,以获得块函数评价结果,以及产生具有用于向量Z的计数值的记录(例如,块函数评价记录)。
  表2-用于对划分的记录数量进行计数的用户定义的函数
bloFunc(Iterator records)/**向量分组的记录的列表**/ int count=0; for each record x in records count++ EmitResult(Vector Z,count)
表2中所示用户定义的bloFunc函数对输入迭代子中的记录数量进行计数,并将计数值作为向量Z中的记录包括进来。每个向量分组产生向量分组记录计数值(例如,块函数评价结果)。为了确定向量中记录数量的总计数,可应用递归运算符以将向量Z的块函数评价记录中的所有值(例如,块函数评价结果)相加。用户定义的bloFunc函数可以同时应用于大文件的向量组块。在一个实现中,可以顺序处理驻留在块的同一节点上的向量分组。如果需要,GridBatch可以在执行块运算符之前执行划分运算符和/或分布运算符,以确保向量分组记录的分布(例如,基于每个向量组块记录内感兴趣数据的值的分布、划分和/或节点的数量)。
在一个实现中,可以使用块运算符来优化中值计算。例如,块运算符可以用来在用于大型财务服务公司的数据仓库应用中执行中值计算。具有上千万客户的公司可能对收集并报告关于每个客户的平均和中值账户余额的高层统计感兴趣。统计可以来自于很多不同维度的公司的客户基础(例如,在年龄组20-30岁中、30-40岁中)和/或是跨行业的(例如,零售业和高等教育业)。公司可以对很多维度的组合感兴趣,诸如跨越任一行业内的年龄组,和/或跨越任一地理区域内的工作任期长短。在一个实现中,这种统计的计算涉及 具有上千万行的大型事实表,并且每一行保有与特定客户相关的全部信息,包括:账户余额;客户生日;行业;地理;工作任期长短和教育。计算平均值仅需要简单地相加出总和并将其除以计数。然而,计算“中值(median)”更加复杂,因为计算中值涉及顺序处理。一个方法是对所有数据进行排序而后找到中间点。两个步骤在本质上都是顺序的,所以它们需要很长时间才能针对大型数据集而完成。在计算中值是大量中值计算时,其变得更加复杂。
今天,大部分企业经常使用数据库来解决大型数据仓库应用计算,诸如中值计算。例如,一旦将事实表加载至数据库,则针对该事实表执行SQL语句,以计算正好是中值的50%值。尽管该SQL语句编写简单,但是在执行查询之前对数据进行分段是复杂的。例如,为对应于同一年龄组中客户的四个年龄组(例如,20-30岁,30-40岁,40-50岁和50岁及以上)的行计算中值必须在为每个年龄组计算中值之前对其进行归组。一种根据年龄组对行进行归组的方式在于,将条件(例如,where子句)包括在SELECT语句中,其指定客户生日日期的范围,使得随后可以从该组计算出中值。然而,可能需要四个单独的查询,每一个查询用于一个年龄组(例如,20-30岁,30-40岁,40-50岁和50岁及以上),并且数据分四路进行处理,其中每一路都会读取完整数据集。
用来为四个年龄组计算中值的另一方法在于使用GROUP BY子句,来将同一年龄等级中的所有行归组在一起。为了能让GROUP BY工作,年龄范围内的所有行必须具有带有相同值的公共栏。可以使用ETL(提取、变换、加载)工具来添加附加的栏(例如,年龄组栏),其中同意年龄组值被指派给同一年龄组中的所有行。例如,代表年龄在20-30之间的客户的行可以被指派为1的年龄组值,而代表年龄在30-40岁之间的客户的行可以被指派为2的年龄组值。这种方法需要多个三轮通过(pass),其中第一轮读取数据集,第二轮将具有附加栏的已变换数据集写入阶段表,而第三轮为GROUP BY查询读取数据集。然而,第三轮需要为每个年龄组重复。将用于大型 数据集的路径数量最小化是关键的,因为从数据库读取数据和向数据库写入数据耗时最多。
利用块运算符,中值计算可以在两轮通过中完成。在一个实现中,块运算符使用三步来计算中值并最小化了通过的次数(例如,记录读取和/或写入)数量、网络和本地带宽使用。
在一个实现中,块运算符逻辑280包括识别代表有序数据划分的分离点(split-point)。识别分离点是为了确保向量分组大小基本上均匀地分布,以便最大化并行性。对于将为其计算中值的值而言,如果分布(例如,账户余额的分布)是已知的,则可以标识分离点。备选地,预处理可被执行以收集感兴趣的值的分布(例如,账户余额)。GridBatch标识分离点,这些分离点确保每个向量组块足够小以适合于存储器。块运算符将输入数据作为迭代子提供至用户定义的函数bloFunc。
GridBatch确保向量组块大小足够小,以便确保bloFunc用户定义的函数能够在存储器中缓存将由bloFunc用户定义的函数处理的所有数据。
在一个实现中,GridBatch根据以下三步为整个数据集计算一个中值(例如,所以客户的中值年龄)。步骤1,GridBatch将记录划分成向量组块,使得用来计算中值的感兴趣的值(例如,客户年龄)位于给定向量组块的两个分离点之间。bloFunc用户定义的函数在向量组块中的所有数据内迭代,以对向量组块中记录的数据进行计数。步骤2,对向量组块的计数聚集。中值的排名是根据从将向量组块的技术相加得到的总数确定的。中值所在的向量组块和中值在该向量组块内的排名是已知的,因为分离点标识了向量组块的顺次次序,并且从而标识了每个向量组块内内阁值的有序排名。例如,在中值被确定位于向量组块c和排名r中的情况下,以及在排名r是向量组块记录的有序顺序中的位置的情况下,中值被标识为排名r处的向量组块的值。步骤3,向量组块c中的数据被排序,并随后识别出第r个数字,其便是中值。
为了确定数据集内的多个中值(例如,多个年龄组20-30岁、30-40岁、40-50岁和50岁及以上的每一个的中值),可以为每个年龄组使用计数器。在以上步骤1和3中,用于每个年龄组的计数器仅在记录属于该计数器的年龄组时增长。GridBatch在步骤1和步骤3中扫描数据一次,以及数据存储在步骤3中一次。
GridBatch计算划分次数一次,并利用已划分的数据结构。预先划分数据的能力使得GridBatch能够提供巨大的性能收益。中值数目的增加增大了GridBatch用来计算多个中值分组和分组划分配置的数目。块运算符处理的中值数据的量增大中值的数量,这与增大行数具有类似的后果。
表3示出了GridBatch可以如何实现用户定义的bloFunc函数来计算划分内的多个年龄等级的中值(例如,多个年龄组的中值)。表3示出了向量X的记录列表属于同一划分(例如,向量组块),使得该划分针对该记录的列表内的所有记录标识一次。
  表格3-用于计算多个中值的用户定义的函数
bloFunc(list of records X): p=partition(X) for each x in X for each bracket b if(x in b) cp,b++/**针对等级b,对划分p中的记录进行计数**/ for each bracket b EmitResult(b;p,cp,b)
表4示出了GridBatch可如何实现用户定义的bloFunc函数以确定划分内多个中值的值。
  表4-用于确定中值的用户定义的函数
  bloFunc(list of records X):
[0110] 
p=partition(X)/**p划分**/ sort X by account balance for each bracket b/**b等级**/ if(p==pb)/**划分p的pb等级**/ find rbth value in bracket b/**找到等级b内的排名后的值,该值对应于中值**/ EmitResult(b,rbth balance)
图14示出了GridBatch 100可以用来执行块运算符的逻辑流。主节点逻辑260接收块函数调用1400以将用户定义的bloFunc函数应用(例如,计算向量组块中记录的数量)至向量X的向量组块的记录(1402)。主节点逻辑260产生对应于向量X的每个向量组块的从任务(1404)。从任务调用从节点逻辑160以定位指派给对应从节点的向量X的每个向量组块(1406)。对于向量X的每个向量组块,从节点逻辑160将用户定义的bloFunc应用于每个向量组块记录,以获得用于每个向量组块的块函数评价结果(例如,向量组块记录计数),用于形成向量Z的块函数评价记录(1408)。一旦从节点逻辑160已将bloFunc应用于向量X的每个向量组块记录,每个从任务向主节点逻辑260通知从任务的完成状态和Z的对应向量组块的位置。块运算符在从节点向主节点通知所有从任务已完成时成功完成(1410)。向量X的块函数评价结果(例如,每个向量组块的记录计数)用作用于向量Z的块函数评价记录。
GridBatch提供的附加运算符对于并行编程技术产生了意想不到的良好结果。具体地,相比于在应用并行化方面进行尝试的现有技术,每个运算符提供了显著的优势。意想不到的良好结果包括显著附加编程灵活性、效率和适用性,以解决现代企业面临的极难问题,该问题具体上是在现实时间期限内必须处理庞大数据量,从而取得有意义的结果。
MapReduce编程模型实现单一编程结构。具体地,映射函数总是与归约函数配对。另一方面,GridBatch提供多个独立运算符:递归、卷积、联接、分布、映射和块,程序员实际上可以以任何次序 或顺序来构建在很多节点上并行执行的复杂应用。此外,GridBatch框架实现了为独立运算符指定的用户定义的函数,程序员可以给予很大程度的自定义功能。这种用户定义的函数包括划分函数,用来确定如何将向量细分成向量组块;散列函数,用来在节点间分布向量组块;联接函数,用来指定如何组合记录;卷积函数,用来支持联接函数;递归函数,其指定如何将递归运算符的部分结果合并;映射函数,用于应用于向量的记录;以及块函数,其规定如何将运算应用于给定划分的记录。
此外,需要注意,系统执行可以代表底层物理对象的数据的电学变换。例如,主节点逻辑、从节点逻辑和分布运算符逻辑通过选择性控制的分布,将离散任务请求变换成多个高度分散的并行任务。主节点逻辑、从节点逻辑、作业调度器逻辑、卷积运算符逻辑、递归运算符逻辑、映射运算符逻辑和块运算符将高度分散的并行化任务转换成离散结果。这些离散结果可代表大量物理对象,仅作为示例包括图像、视频、财务清单(例如,信用卡、银行账户和抵押清单)、电子邮件消息、用于制造的原材料、成品和半成品或者任何其他物理对象。
另外,系统可以实现为特定机器。例如,特定机器可以包括CPU、GPU和用于完成上述主节点逻辑的软件库。特定机器可以包括CPU和具有上述主节点逻辑和从节点逻辑的GPU。将结合主节点逻辑描述的用户定义的函数并入可以包括:将处理上述调度、组合、转换、移位、聚集、映射和分布逻辑的函数调用从软件库构建至应用中。然而,应用可以以其他方式扩展,以便引起与系统的交互。
已经描述了很多实现。不过,应当理解,可以在不脱离本发明精神和范围的前提下,进行各种改进。因此,其他实现落入所附权利要求的范围内。

Claims (24)

1.一种用于并行处理数据的方法,包括:
在多个处理节点上发起并行执行第一数据处理操作,所述第一数据处理操作是利用在所述多个处理节点上执行的第一用户定义的函数来定制的;以及
在所述多个处理节点上发起并行执行第二数据处理操作,所述第二数据处理操作是利用在所述多个处理节点上执行的第二用户定义的函数来定制的;
其中所述第一数据处理操作和所述第二数据处理操作中的至少一个包括块运算符操作;其中所述块运算符操作利用用户定义的块函数来定制;以及其中所述块运算符操作可操作用于将所述用户定义的块函数应用于第一向量的多个记录。
2.根据权利要求1所述的方法,进一步包括:
根据用户定义的散列函数,在所述多个处理节点间指派所述第一向量的向量组块。
3.根据权利要求2所述的方法,进一步包括:
将用于所述向量组块的向量组块节点位置信息提供给作业调度器。
4.根据权利要求2所述的方法,进一步包括:
重新安排所述向量组块。
5.根据权利要求1所述的方法,
其中所述第一数据处理操作或第二数据处理操作包括联接运算符操作;
其中所述第一用户定义的函数或第二用户定义的函数包括用户定义的联接函数;以及
其中所述联接运算符操作用于:当所述第一向量和第二向量中出现的联接索引字段与分布在所述多个处理节点间的所述第一向量中的第一匹配记录和所述第二向量中的第二匹配记录相匹配时,对所述第一匹配记录和所述第二匹配记录调用所述用户定义的联接函数以获得联接结果。
6.根据权利要求5所述的方法,进一步包括:
接收联接函数调用;以及
在所述多个处理节点间本地发起产生联接任务,每个联接任务可操作以选择性地发起执行所述用户定义的联接函数。
7.根据权利要求1所述的方法,
其中所述第一数据处理操作或第二数据处理操作包括递归运算符操作;
其中所述第一用户定义的函数或第二用户定义的函数包括用户定义的递归函数;以及
其中所述递归运算符操作在所述多个处理节点本地的向量组块上调用所述用户定义的递归函数开始,以产生中间结果、将所述中间结果的子集传达至所述多个处理节点的子集,以及迭代进行:
对所述中间结果调用所述用户定义的递归函数以产生越来越少的中间结果;以及
将所述越来越少的中间结果的子集传达至所述多个处理节点的越来越少的子集;直到在所述节点的第一子集的最终节点上的所述第一向量处获得最终递归结果。
8.根据权利要求7所述的方法,进一步包括:
接收递归函数调用;以及
在所述多个处理节点间本地发起产生递归操作任务,每个递归操作可操作以选择性地对所述向量组块发起执行所述用户定义的递归函数。
9.根据权利要求1所述的方法,
其中所述第一数据处理操作或第二数据处理操作包括卷积运算符操作;
其中所述第一用户定义的函数或第二用户定义的函数包括用户定义的卷积函数;以及
其中所述卷积运算符操作针对所述第一向量的每个记录而对第二向量的每个记录调用所述用户定义的卷积函数,以获得卷积函数结果。
10.根据权利要求9所述的方法,进一步包括:
接收卷积函数调用;以及
在所述多个处理节点间本地发起产生卷积操作任务,每个卷积操作任务可操作以选择性地发起执行所述用户定义的卷积函数。
11.根据权利要求1所述的方法,
其中所述第一数据处理操作或第二数据处理操作包括分布运算符操作;
其中所述第一用户定义的函数或第二用户定义的函数包括用户定义的划分函数;以及
其中所述分布运算符操作根据所述用户定义的划分函数,在所述多个处理节点间对之前作为第一向量组块分布的第一向量进行重新分布,以获得在所述多个处理节点间重新分布的所述第一向量的重新分布的向量组块。
12.根据权利要求1所述的方法,
其中所述第一数据处理操作或第二数据处理操作包括映射运算符操作;
其中所述第一用户定义的函数或第二用户定义的函数包括用户定义的映射函数;以及
其中所述映射运算符操作将所述用户定义的映射函数应用于在所述多个处理节点间分布的向量的记录。
13.一种用于并行处理数据的设备,包括:
用于在多个处理节点上发起并行执行第一数据处理操作的装置,所述第一数据处理操作是利用在所述多个处理节点上执行的第一用户定义的函数来定制的;以及
用于在所述多个处理节点上发起并行执行第二数据处理操作的装置,所述第二数据处理操作是利用在所述多个处理节点上执行的第二用户定义的函数来定制的;
其中所述第一数据处理操作和所述第二数据处理操作中的至少一个包括块运算符操作;其中所述块运算符操作利用用户定义的块函数来定制;以及其中所述块运算符操作可操作用于将所述用户定义的块函数应用于第一向量的多个记录。
14.根据权利要求13所述的设备,进一步包括:
用于根据用户定义的散列函数在所述多个处理节点间指派所述第一向量的向量组块的装置。
15.根据权利要求14所述的设备,进一步包括:
用于将用于所述向量组块的向量组块节点位置信息提供给作业调度器的装置。
16.根据权利要求14所述的设备,进一步包括:
用于重新安排所述向量组块的装置。
17.根据权利要求13所述的设备,
其中所述第一数据处理操作或第二数据处理操作包括联接运算符操作;
其中所述第一用户定义的函数或第二用户定义的函数包括用户定义的联接函数;以及
其中所述联接运算符操作用于:当所述第一向量和第二向量中出现的联接索引字段与分布在所述多个处理节点间的所述第一向量中的第一匹配记录和所述第二向量中的第二匹配记录相匹配时,对所述第一匹配记录和所述第二匹配记录调用所述用户定义的联接函数以获得联接结果。
18.根据权利要求17所述的设备,进一步包括:
用于接收联接函数调用的装置;以及
用于在所述多个处理节点间本地发起产生联接任务的装置,每个联接任务可操作以选择性地发起执行所述用户定义的联接函数。
19.根据权利要求13所述的设备,
其中所述第一数据处理操作或第二数据处理操作包括递归运算符操作;
其中所述第一用户定义的函数或第二用户定义的函数包括用户定义的递归函数;以及
其中所述递归运算符操作在所述多个处理节点本地的向量组块上调用所述用户定义的递归函数开始,以产生中间结果、将所述中间结果的子集传达至所述多个处理节点的子集,以及迭代进行:
对所述中间结果调用所述用户定义的递归函数以产生越来越少的中间结果;以及
将所述越来越少的中间结果的子集传达至所述多个处理节点的越来越少的子集;直到在所述节点的第一子集的最终节点上的所述第一向量处获得最终递归结果。
20.根据权利要求19所述的设备,进一步包括:
用于接收递归函数调用的装置;以及
用于在所述多个处理节点间本地发起产生递归操作任务的装置,每个递归操作可操作以选择性地对所述向量组块发起执行所述用户定义的递归函数。
21.根据权利要求13所述的设备,
其中所述第一数据处理操作或第二数据处理操作包括卷积运算符操作;
其中所述第一用户定义的函数或第二用户定义的函数包括用户定义的卷积函数;以及
其中所述卷积运算符操作针对所述第一向量的每个记录而对第二向量的每个记录调用所述用户定义的卷积函数,以获得卷积函数结果。
22.根据权利要求21所述的设备,进一步包括:
用于接收卷积函数调用的装置;以及
用于在所述多个处理节点间本地发起产生卷积操作任务的装置,每个卷积操作任务可操作以选择性地发起执行所述用户定义的卷积函数。
23.根据权利要求13所述的设备,
其中所述第一数据处理操作或第二数据处理操作包括分布运算符操作;
其中所述第一用户定义的函数或第二用户定义的函数包括用户定义的划分函数;以及
其中所述分布运算符操作根据所述用户定义的划分函数,在所述多个处理节点间对之前作为第一向量组块分布的第一向量进行重新分布,以获得在所述多个处理节点间重新分布的所述第一向量的重新分布的向量组块。
24.根据权利要求13所述的设备,
其中所述第一数据处理操作或第二数据处理操作包括映射运算符操作;
其中所述第一用户定义的函数或第二用户定义的函数包括用户定义的映射函数;以及
其中所述映射运算符操作将所述用户定义的映射函数应用于在所述多个处理节点间分布的向量的记录。
CN200910205412.8A 2008-11-07 2009-10-23 用于机器集群的并行编程的方法和设备 Expired - Fee Related CN101739281B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/267,142 2008-11-07
US12/267,142 US7970872B2 (en) 2007-10-01 2008-11-07 Infrastructure for parallel programming of clusters of machines

Publications (2)

Publication Number Publication Date
CN101739281A CN101739281A (zh) 2010-06-16
CN101739281B true CN101739281B (zh) 2015-04-22

Family

ID=41664570

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200910205412.8A Expired - Fee Related CN101739281B (zh) 2008-11-07 2009-10-23 用于机器集群的并行编程的方法和设备

Country Status (4)

Country Link
US (1) US7970872B2 (zh)
EP (1) EP2184680B1 (zh)
CN (1) CN101739281B (zh)
CA (1) CA2681154C (zh)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7970872B2 (en) * 2007-10-01 2011-06-28 Accenture Global Services Limited Infrastructure for parallel programming of clusters of machines
CN102667761B (zh) 2009-06-19 2015-05-27 布雷克公司 可扩展的集群数据库
US8918365B2 (en) * 2009-06-19 2014-12-23 Blekko, Inc. Dedicating disks to reading or writing
US8543596B1 (en) * 2009-12-17 2013-09-24 Teradata Us, Inc. Assigning blocks of a file of a distributed file system to processing units of a parallel database management system
US8392463B2 (en) * 2010-04-22 2013-03-05 International Business Machines Corporation GPU enabled database systems
EP2580633A4 (en) * 2010-06-11 2015-12-30 Optuminsight Inc APPARATUSES AND METHODS FOR PARALLEL ANALYTICAL PROCESSING
US8839214B2 (en) * 2010-06-30 2014-09-16 Microsoft Corporation Indexable type transformations
CN102314460B (zh) 2010-07-07 2014-05-14 阿里巴巴集团控股有限公司 数据分析方法、系统及服务器
US8370316B2 (en) 2010-07-12 2013-02-05 Sap Ag Hash-join in parallel computation environments
US9246914B2 (en) * 2010-07-16 2016-01-26 Nokia Technologies Oy Method and apparatus for processing biometric information using distributed computation
US9489183B2 (en) 2010-10-12 2016-11-08 Microsoft Technology Licensing, Llc Tile communication operator
US9430204B2 (en) 2010-11-19 2016-08-30 Microsoft Technology Licensing, Llc Read-only communication operator
US9507568B2 (en) 2010-12-09 2016-11-29 Microsoft Technology Licensing, Llc Nested communication operator
US9395957B2 (en) 2010-12-22 2016-07-19 Microsoft Technology Licensing, Llc Agile communication operator
US8713039B2 (en) * 2010-12-23 2014-04-29 Microsoft Corporation Co-map communication operator
JP5178852B2 (ja) * 2011-01-12 2013-04-10 株式会社東芝 情報処理装置およびプログラム
US9355145B2 (en) * 2011-01-25 2016-05-31 Hewlett Packard Enterprise Development Lp User defined function classification in analytical data processing systems
JP6138701B2 (ja) * 2011-03-04 2017-05-31 富士通株式会社 分散計算方法及び分散計算システム
US8589480B2 (en) * 2011-05-24 2013-11-19 Sony Computer Entertainment America Llc Automatic performance and capacity measurement for networked servers
US20120321202A1 (en) * 2011-06-20 2012-12-20 Michael Benjamin Selkowe Fertik Identifying information related to a particular entity from electronic sources, using dimensional reduction and quantum clustering
US9619495B2 (en) * 2011-07-01 2017-04-11 Hewlett Packard Enterprise Development Lp Surrogate key generation
US9053067B2 (en) * 2011-09-30 2015-06-09 International Business Machines Corporation Distributed data scalable adaptive map-reduce framework
US9201690B2 (en) 2011-10-21 2015-12-01 International Business Machines Corporation Resource aware scheduling in a distributed computing environment
US8886651B1 (en) 2011-12-22 2014-11-11 Reputation.Com, Inc. Thematic clustering
CN103186416B (zh) * 2011-12-29 2016-06-22 比亚迪股份有限公司 构建多任务多分支过程的方法、状态机及执行方法
US10636041B1 (en) 2012-03-05 2020-04-28 Reputation.Com, Inc. Enterprise reputation evaluation
US9697490B1 (en) 2012-03-05 2017-07-04 Reputation.Com, Inc. Industry review benchmarking
US20130297624A1 (en) * 2012-05-07 2013-11-07 Microsoft Corporation Interoperability between Map-Reduce and Distributed Array Runtimes
US8924977B2 (en) 2012-06-18 2014-12-30 International Business Machines Corporation Sequential cooperation between map and reduce phases to improve data locality
US11093984B1 (en) 2012-06-29 2021-08-17 Reputation.Com, Inc. Determining themes
US9710357B2 (en) * 2012-08-04 2017-07-18 Microsoft Technology Licensing, Llc Function evaluation using lightweight process snapshots
US9373074B2 (en) * 2012-10-09 2016-06-21 Qualcomm Incorporated Method and apparatus for time management and scheduling for sychronous processing on a cluster of processing nodes
US8892599B2 (en) * 2012-10-24 2014-11-18 Marklogic Corporation Apparatus and method for securing preliminary information about database fragments for utilization in mapreduce processing
US8744866B1 (en) 2012-12-21 2014-06-03 Reputation.Com, Inc. Reputation report with recommendation
US8805699B1 (en) 2012-12-21 2014-08-12 Reputation.Com, Inc. Reputation report with score
CN103176903B (zh) * 2013-03-12 2019-03-29 百度在线网络技术(北京)有限公司 MapReduce分布式系统程序的测试方法及设备
US8925099B1 (en) 2013-03-14 2014-12-30 Reputation.Com, Inc. Privacy scoring
CN104077218B (zh) * 2013-03-29 2018-12-14 百度在线网络技术(北京)有限公司 MapReduce分布式系统的测试方法及设备
US9354938B2 (en) 2013-04-10 2016-05-31 International Business Machines Corporation Sequential cooperation between map and reduce phases to improve data locality
US9342355B2 (en) 2013-06-20 2016-05-17 International Business Machines Corporation Joint optimization of multiple phases in large data processing
US9703925B1 (en) * 2013-10-22 2017-07-11 Pivotal Software, Inc. Rapid processing of biological sequence data
US10613941B1 (en) * 2015-09-30 2020-04-07 EMC IP Holding Company LLC Hybrid NVRAM logging in filesystem namespace
US10262390B1 (en) * 2017-04-14 2019-04-16 EMC IP Holding Company LLC Managing access to a resource pool of graphics processing units under fine grain control
US10275851B1 (en) 2017-04-25 2019-04-30 EMC IP Holding Company LLC Checkpointing for GPU-as-a-service in cloud computing environment
US10325343B1 (en) 2017-08-04 2019-06-18 EMC IP Holding Company LLC Topology aware grouping and provisioning of GPU resources in GPU-as-a-Service platform
US10698766B2 (en) 2018-04-18 2020-06-30 EMC IP Holding Company LLC Optimization of checkpoint operations for deep learning computing
CN110795228B (zh) 2018-08-03 2023-08-25 伊姆西Ip控股有限责任公司 用于训练深度学习模型的方法和制品、以及计算系统
US10776164B2 (en) 2018-11-30 2020-09-15 EMC IP Holding Company LLC Dynamic composition of data pipeline in accelerator-as-a-service computing environment
CN110209488B (zh) * 2019-06-10 2021-12-07 北京达佳互联信息技术有限公司 任务执行方法、装置、设备、系统及存储介质
US11113064B2 (en) * 2019-11-27 2021-09-07 Sas Institute Inc. Automated concurrency and repetition with minimal syntax

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080091842A1 (en) * 2001-02-24 2008-04-17 International Business Machines Corporation Optimized scalable network switch

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3269849B2 (ja) 1992-05-29 2002-04-02 株式会社日立製作所 並列データベース処理システムとその検索方法
JP3266351B2 (ja) 1993-01-20 2002-03-18 株式会社日立製作所 データベース管理システムおよび問合せの処理方法
JP3747525B2 (ja) 1996-08-28 2006-02-22 株式会社日立製作所 並列データベースシステム検索方法
US6081801A (en) 1997-06-30 2000-06-27 International Business Machines Corporation Shared nothing parallel execution of procedural constructs in SQL
US7197505B2 (en) * 2000-12-22 2007-03-27 Star Bridge Systems, Inc. Multi-dimensional recursive wavefront behavioral synthesis
EP1454492A4 (en) * 2001-07-18 2005-01-05 Polycom Inc SYSTEM AND METHOD FOR IMPROVING THE QUALITY OF VIDEO COMMUNICATION VIA A PACKET BASED NETWORK
US6968335B2 (en) 2002-11-14 2005-11-22 Sesint, Inc. Method and system for parallel processing of database queries
US6874708B2 (en) 2003-02-13 2005-04-05 Illinois Tool Works Inc. Automatic air-assisted manifold mounted gun
US8630973B2 (en) 2004-05-03 2014-01-14 Sap Ag Distributed processing system for calculations based on objects from massive databases
US20070174290A1 (en) 2006-01-19 2007-07-26 International Business Machines Corporation System and architecture for enterprise-scale, parallel data mining
US7865898B2 (en) * 2006-01-27 2011-01-04 Oracle America, Inc. Repartitioning parallel SVM computations using dynamic timeout
US7970872B2 (en) * 2007-10-01 2011-06-28 Accenture Global Services Limited Infrastructure for parallel programming of clusters of machines
US8214325B2 (en) * 2008-11-20 2012-07-03 Sap Ag Federating business event data within an enterprise network

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080091842A1 (en) * 2001-02-24 2008-04-17 International Business Machines Corporation Optimized scalable network switch

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GridBatch:Cloud Computing for Large-Scale Data-Intensive Batch Application;HUAN LIU 等;《CLUSTER COMPUTING AND THE GRID》;20080519;295-303 *

Also Published As

Publication number Publication date
EP2184680B1 (en) 2018-09-26
US7970872B2 (en) 2011-06-28
CN101739281A (zh) 2010-06-16
CA2681154A1 (en) 2010-05-07
CA2681154C (en) 2014-07-15
EP2184680A2 (en) 2010-05-12
US20090089560A1 (en) 2009-04-02
EP2184680A3 (en) 2010-06-02

Similar Documents

Publication Publication Date Title
CN101739281B (zh) 用于机器集群的并行编程的方法和设备
CN101403978B (zh) 用于机器集群的并行编程的基础构造
Böse et al. Probabilistic demand forecasting at scale
US20220066772A1 (en) System and Method for Code and Data Versioning in Computerized Data Modeling and Analysis
US7680765B2 (en) Iterate-aggregate query parallelization
CN103177057B (zh) 用于内存列存储数据库的多核算法
US7849114B2 (en) Method, system, and program product for generating a virtual database
CN103177059B (zh) 用于数据库计算引擎的分离处理路径
US11120361B1 (en) Training data routing and prediction ensembling at time series prediction system
JP6376865B2 (ja) 並列ツリー・ベースの予測のための、コンピュータにより実行される方法、ストレージ媒体、およびコンピュータ・システム
US8060544B2 (en) Representation of data transformation processes for parallelization
US20090077011A1 (en) System and method for executing compute-intensive database user-defined programs on an attached high-performance parallel computer
US20120317059A1 (en) System and method for space and resource optimization
JP6296442B2 (ja) インメモリデータベースにおける高効率のゲノムリードアラインメント
CN107077480A (zh) 基于查询需求自适应地从当前时间的行存储数据库中构建列存储数据库的方法和系统
CN104205039A (zh) 使用兴趣驱动数据管线进行数据分析的兴趣驱动商业智能系统和方法
CN101506804A (zh) 用于在大数据集分析期间维持一致性的方法和装置
CN104823185A (zh) 用于兴趣驱动的商业智能系统中的兴趣驱动的数据共享的系统和方法
Huynh et al. An efficient approach for mining sequential patterns using multiple threads on very large databases
CN102426582A (zh) 数据操作管理装置和数据操作管理方法
US20160203409A1 (en) Framework for calculating grouped optimization algorithms within a distributed data store
Furtado A survey of parallel and distributed data warehouses
Böhm et al. Demaq/Transscale: automated distribution and scalability for declarative applications
Moukhi et al. Towards a new method for designing multidimensional models
Ma et al. dmapply: A functional primitive to express distributed machine learning algorithms in R

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: ACCENTURE INTERNATIONAL GMBH

Free format text: FORMER OWNER: ACCENTURE GLOBAL SERVICES GMBH

Effective date: 20101208

Owner name: ACCENTURE GLOBAL SERVICES GMBH

Free format text: FORMER OWNER: ACCENTURE INTERNATIONAL GMBH

Effective date: 20101208

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: SCHAFFHAUSEN, SWITZERLAND TO: LUXEMBOURG, LUXEMBOURG

Free format text: CORRECT: ADDRESS; FROM: LUXEMBOURG, LUXEMBOURG TO: DUBLIN, IRELAND

TA01 Transfer of patent application right

Effective date of registration: 20101208

Address after: Dublin, Ireland

Applicant after: ACCENTURE GLOBAL SERVICES Ltd.

Address before: Luxemburg Luxemburg

Applicant before: Accenture international LLC

Effective date of registration: 20101208

Address after: Luxemburg Luxemburg

Applicant after: Accenture international LLC

Address before: Schaffhausen

Applicant before: ACCENTURE GLOBAL SERVICES Ltd.

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150422