CN104216865B - 映射和化简运算加速系统及方法 - Google Patents

映射和化简运算加速系统及方法 Download PDF

Info

Publication number
CN104216865B
CN104216865B CN201310381432.7A CN201310381432A CN104216865B CN 104216865 B CN104216865 B CN 104216865B CN 201310381432 A CN201310381432 A CN 201310381432A CN 104216865 B CN104216865 B CN 104216865B
Authority
CN
China
Prior art keywords
mapping
reduction operation
accelerator
channel
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310381432.7A
Other languages
English (en)
Other versions
CN104216865A (zh
Inventor
金镇喆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung SDS Co Ltd
Original Assignee
Samsung SDS Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung SDS Co Ltd filed Critical Samsung SDS Co Ltd
Publication of CN104216865A publication Critical patent/CN104216865A/zh
Application granted granted Critical
Publication of CN104216865B publication Critical patent/CN104216865B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/22Microcontrol or microprogram arrangements
    • G06F9/28Enhancement of operational speed, e.g. by using several microcontrol devices operating in parallel

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Advance Control (AREA)

Abstract

公开映射和化简运算加速系统和方法,根据本发明一实施例的映射和化简加速系统包括:一个以上的映射节点,根据主节点的映射运算请求执行映射运算;一个以上的化简节点,利用所述映射运算结果数据执行化简运算,其中,所述映射节点包括将执行所述映射运算之后生成的多个数据块进行合并而生成数据流,并生成用于传送所述数据流的传送信道的一个以上的映射运算加速器,所述化简节点包括通过所述传送信道从所述映射运算加速器接收所述数据流,并基于所接收的所述数据流复原所述多个数据块而提供给所述化简运算的一个以上的化简运算加速器。

Description

映射和化简运算加速系统及方法
技术领域
本发明的实施例涉及用于处理大容量数据的并行计算技术。
背景技术
映射和化简(Map Reduce)是以支持用于处理大容量数据的分散计算为目的而开发出的软件框架。该框架是为了支持针对拍字节(Peta Byte)以上的大容量数据的由多个计算机构成的群集环境下的并行处理而被开发出来。
当前的映射和化简运算处理系统中,通过生成从原始数据生成的键值对(key-value pair)的映射(Map)运算过程和作为将所生成的键值对转换为另一键值对的过程的化简(Reduce)运算过程而执行映射和化简运算,在这个过程中,将各个运算步骤的中间计算数据先存储到构成分散计算系统的节点的本地文件系统(local file system),然后传送给运算所需的节点而再次存储到本地文件系统之后,将在相关节点中执行下一个运算。
虽然这样的映射和化简运算方式具有最小化网络上的数据移动的同时可处理大容量的数据的优点,但是在运算过程中至少会出现以下五种性能瓶颈,因而具有性能下降的问题。
-在本地文件中读取将要在映射节点的映射运算中使用的原始数据时,因低的磁盘I/O速度引起的性能瓶颈;
-将映射运算之后生成的键值对临时数据发送给化简节点之前存储到本地文件系统的过程中,因低的磁盘I/O速度而产生的性能瓶颈;
-向远程的化简节点发送数据时,通过网络传送原先存在于本地文件系统的数据块的过程中产生的网络延迟;
-将传送到化简节点的映射键值对数据临时存储到化简节点的本地文件系统的过程中,因低的磁盘I/O速度产生的性能瓶颈;
-为了化简运算而将映射键值对数据以数据块的形态再次合并到本地文件系统而存储的过程中产生的磁盘输入/输出(I/O)过程中的性能瓶颈。
发明内容
本发明的实施例用于提供一种映射和化简运算加速技术,以用于最小化在映射和化简运算过程中可能发生的因频繁的磁盘输入/输出或网络延迟等引起的性能的瓶颈现象。
而且,本发明的实施例用于提供在不修改现有的映射和化简运算框架的同时能够以插件的形态设置的映射和化简运算加速技术。
根据本发明一实施例的映射和化简运算加速系统,包括:一个以上的映射节点,根据主节点的映射运算请求执行映射运算;一个以上的化简节点,利用所述映射运算结果数据执行化简运算,其中,所述映射节点包括将执行所述映射运算之后生成的多个数据块进行合并而生成数据流,并生成用于传送所述数据流的传送信道的一个以上的映射运算加速器,所述化简节点包括通过所述传送信道从所述映射运算加速器接收所述数据流,并基于所接收的所述数据流复原所述多个数据块而提供给所述化简运算的一个以上的化简运算加速器。
所述映射节点还可以包括根据所述映射运算请求生成所述一个以上的映射运算加速器的映射运算加速控制器。
所述映射运算加速控制器在接收到运算加速器追加请求时,可追加生成一个以上的映射运算加速控制器。
所述映射运算加速控制器在从所述化简节点接收到所述数据流传送请求时,可将所述数据流传送请求重定向到所述传送信道。
所述映射运算加速控制器可以在所述映射节点的存储器上合并所述多个数据块而生成所述数据流。
所述映射运算加速器可包括:数据块输入输出单元,读取存储在所述映射节点的本地文件系统的多个数据块;数据块合并单元,合并由所述数据块输入输出单元读取的所述多个数据块而生成数据流;传送信道控制单元,生成用于传送所述数据流的传送信道,并根据所述化简运算加速器的请求通过所述传送信道将所述数据流发送至所述化简节点。
所述传送信道可以是远程直接存取(Remote Direct Memory Access,RDMA)信道或者以太网信道中的一个。
所述传送信道控制单元可根据所述化简运算加速器的请求生成一个以上的服务器端信道连接器,并可通过所生成的所述服务器端信道连接器向所述化简运算加速器发送所述数据流。
所述化简节点还可以包括根据所述主节点的化简运算请求生成所述一个以上的化简运算加速器的化简运算加速控制器。
所述化简运算加速控制器在从所述映射节点接收到所述传送信道信息时,可利用所接收的传送信道信息向所生成的所述化简运算加速器请求接收所述数据流。
所述化简运算加速器可以在所述化简节点的存储器上基于所述数据流复原所述多个数据块。
所述化简运算加速器可包括:传送信道控制单元,利用在所述映射运算加速器端生成的所述传送信道接收所述数据流;数据块分离单元,从所接收的所述数据流复原所述多个数据块;数据块输入输出单元,将复原的所述多个数据块提供给所述化简节点的化简运算器。
所述传送信道控制单元可生成一个以上的客户机端信道连接器,并可利用所生成的所述客户机端信道连接器从所述映射运算加速器接收所述数据流。
所述化简运算加速器在完成所述数据流的接收时,可向所述映射运算加速器发送信道连接解除请求,所述信道连接解除请求可包括所生成的所述客户机端信道连接器的数量。
接收到所述信道连接解除请求的所述映射运算加速器在接收到与从所述化简运算加速器接收到的信道连接器的数量相等的连接解除消息时,可发送关于所述信道连接解除请求的响应,并解除与所述化简运算加速器的信道连接。
另外,根据本发明一实施例的映射和化简运算加速方法,其为在包括根据主节点的映射运算请求执行映射运算的一个以上的映射节点以及利用所述映射运算结果数据执行化简运算的一个以上的化简节点的映射和化简运算加速系统中执行的映射和化简运算加速方法,包括如下步骤:在所述映射节点的一个以上的映射运算加速器中,将执行所述映射运算之后生成的多个数据块进行合并而生成数据流,并生成用于传送所述数据流的传送信道;在一个以上的化简运算加速器中,通过所述传送信道从所述映射运算加速器接收所述数据流;在所述一个以上的化简运算加速器中,从接收的所述数据流复原所述多个数据块而提供给所述化简运算。
所述方法在执行生成所述传送信道的步骤之前,还可以包括步骤:根据所述映射运算请求生成所述一个以上的映射运算加速器。
生成所述一个以上的映射运算加速器的步骤中还可以包括步骤:当接收到运算加速器追加请求时,追加生成一个以上的映射运算加速控制器。
所述映射运算加速控制器在从所述化简节点接收到所述数据流传送请求时,可将所述数据流传送请求重定向到生成的所述传送信道。
所述传送信道可以是远程直接存取(Remote Direct Memory Access,RDMA)信道或者以太网信道中的一个。
所述映射运算加速器可根据所述化简运算加速器的请求生成一个以上的服务器端信道连接器,并通过所生成的所述服务器端信道连接器向所述化简运算加速器发送所述数据流。
在执行接收所述数据流的步骤之前还可以包括步骤:在所述化简节点的化简运算加速控制器中,根据所述主节点的化简运算请求生成所述一个以上的化简运算加速器。
所述化简运算加速控制器在从所述映射运算加速控制器接收到所述传送信道信息时,可利用所接收的所述传送信道信息向所述化简运算加速器请求接收所述数据流。
接收所述数据流的步骤中,可生成一个以上的客户机端信道连接器,并可利用所述传送信道信息构建所述客户机端信道连接器和所述映射运算加速器端生成的服务器端信道连接器之间的信道连接,由此从所述映射运算加速器接收所述数据流。
所述方法还包括步骤:在执行接收所述数据流的步骤之后,在所述化简运算加速器中,向所述化简运算加速器发送信道连接解除请求,所述信道连接解除请求可包括所述化简运算加速器和所述映射运算加速器之间构建的信道连接数量。
接收到所述信道连接解除请求的所述映射运算加速器在从所述化简运算加速器接收到与接收到的所述信道连接数量相等的连接解除消息时,可向所述化简运算加速器发送关于所述信道连接解除请求的响应,并解除与所述化简运算加速器的信道连接。
另外,根据本发明一实施例的装置为包括存储有能够在计算机上执行的程序代码的存储器以及利用所述存储器执行所述程序代码的处理器的装置,所述程序代码用于执行如下过程:将执行所述映射运算之后生成的多个数据块在所述存储器内进行合并而生成数据流,并生成用于传送所述数据流的传送信道;通过所述传送信道收发所述数据流;在所述存储器内分割通过传送信道接收的数据流而复原多个数据块,并将复原的所述多个数据块提供给所述化简运算。
另外,根据本发明一实施例的计算机可读记录介质为包括程序代码的计算机可读记录介质,所述程序代码在由计算机执行时,使所述计算机执行如下过程:将执行所述映射运算之后生成的多个数据块进行合并而生成数据流,并生成用于传送所述数据流的传送信道;通过所述传送信道收发所述数据流;在所述存储器内分割通过传送信道接收的数据流而复原多个数据块,并将复原的所述多个数据块提供给所述化简运算。
根据本发明的实施例,对于在映射节点作为映射运算结果生成的键值对数据不记录于磁盘上的本地文件系统而在存储器中以连续的流的形态直接传送给远程化简节点,据此可以解决映射节点上的不必要的磁盘输入/输出引起的性能瓶颈问题。
而且,为了消除从所述映射节点向远程的化简运算节点传送数据时产生的网络延迟,在映射节点和化简运算节点之间生成远程直接存取(RDMA)信道,并通过该信道传送数据流,据此可最小化网络延迟引起的性能瓶颈问题。
而且,消除了将传送至化简节点的键值对数据临时存储在化简节点的本地文件系统的磁盘输入/输出过程,在存储器中接收到映射键值对数据时立刻在存储器上合并为数据块之后,并不将其写入磁盘而从存储器直接传递给化简运算而执行运算,据此可解决磁盘的输入/输出速度引起的性能瓶颈问题。
同时,对于根据本发明实施例的映射和化简运算加速器来说,构成为附加的插件形态,因此无需对现有的映射和化简架构进行修改也能够提高运算性能,具有容易应用于现有的映射和化简运算框架的优点。
附图说明
图1为用于说明根据本发明一实施例的包括映射和化简运算加速器的映射和化简运算系统100的框图。
图2为用于说明根据本发明一实施例的映射和化简运算加速器114的详细组成的框图。
图3为用于说明根据本发明一实施例的映射运算加速控制器200的详细组成的框图。
图4为用于说明根据本发明一实施例的映射运算加速器202的详细组成的框图。
图5为用于说明根据本发明一实施例的化简运算加速器206的详细组成的框图。
图6为用于说明在根据本发明一实施例的映射运算加速控制器200中控制映射运算加速器202的过程的图。
图7和图8为用于说明根据本发明一实施例的利用映射和化简运算加速器114的映射和化简运算加速过程的图。
图9为用于说明根据本发明一实施例的映射运算加速器202和化简运算加速器206之间的信道生成过程的顺序图。
图10为用于说明根据本发明一实施例的映射或化简运算加速器之间的信道连接被解除的过程的顺序图。
主要符号说明
100:映射和化简运算系统
102:主节点
104:从节点
106:本地文件系统
108:工作跟踪器
110:任务跟踪器
112:映射和化简运算器
114:映射和化简运算加速器
200:映射运算加速控制器
202:映射运算加速器
204:化简运算加速控制器
206:化简运算加速器
300:映射运算加速器控制单元
302:资源请求处理单元
304:重定向单元
400:接收单元
402:资源监控单元
404:数据块输入输出单元
406:数据块合并单元
408:传送信道控制单元
500:接收单元
502:传送信道控制单元
504:数据块分离单元
506:数据块输入输出单元
具体实施方式
以下,参照附图对本发明的具体实施形态进行说明。但是,这仅仅是示例,本发明不局限于此。
在对本发明进行说明时,当判断为对与本发明相关的公知技术的具体说明将不必要地混淆本发明的要旨时,省略其具体说明。而且,后述的术语为考虑到在本发明中的功能而进行定义的术语,可根据使用者、应用者的意图或惯例等而发生改变。因此,其定义应基于整个本说明书的内容来定。
本发明的技术思想由权利要求书所记载的范围来确定,以下实施例仅仅是用于有效地向本发明所属技术领域中具有普通知识的技术人员说明本发明的技术思想的手段。
图1为用于说明根据本发明一实施例的包括映射和化简运算加速器的映射和化简运算系统100的框图。如图所示,根据本发明一实施例的映射和化简运算系统100包括主节点102和多个从节点104。
主节点102将大容量数据分为预定的大小的块而分开存储在各个从节点104的本地文件系统106。主节点102上配备工作跟踪器108,该工作跟踪器108根据用户的映射和化简工作请求向各个从节点104分配映射运算或化简运算。此时,为了最小化存储于本地文件系统的数据的移动,构成为(快速输入和输出:fast-path I/O)各个映射运算和化简运算由各个从节点104中的存储有运算对象数据的节点或最为靠近存储有数据的节点的节点执行。
从节点104为根据主节点102的控制执行映射运算或化简运算的节点。从节点104根据主节点102分配的作用可区分为映射节点和化简节点。即,以下说明的“映射节点”是指利用原始数据执行映射运算的从节点104,“化简节点”是指利用映射运算的结果执行化简运算的从节点104。
从节点104除了包括前述的本地文件系统106之外,还包括任务跟踪器110、映射和化简运算器112、映射和化简运算加速器114。
任务跟踪器110从主节点102的工作跟踪器108接收映射运算或化简运算请求,并根据所接收的请求运行映射和化简运算器112,以使映射运算或化简运算得以执行。
映射和化简运算器112根据任务跟踪器110的控制执行被分配的映射运算或化简运算。与具体的映射运算和化简运算相关的事项为本领域中具有通常知识的技术人员所熟知,因此在此省略说明。而且,为了区分,在以下说明中,在映射和化简运算器112执行映射运算时称为映射运算器112a,在映射和化简运算器112执行化简运算时称为化简运算器112b。
映射和化简运算加速器114是用于消除由映射和化简运算器112的映射运算或化简运算中产生的磁盘输入/输出或者网络延迟等引起的瓶颈现象,并加速整个映射和化简运算的模块。对于映射和化简运算加速器114的详细构成在图2中进行详细的说明。
图2为用于说明根据本发明一实施例的映射和化简运算加速器114的详细组成的框图。如图所示,根据本发明一实施例的映射和化简运算加速器114包括映射运算加速控制器200、映射运算加速器202、化简运算加速控制器204、化简运算加速器206。其中,映射运算加速器202由映射运算加速控制器200生成和删除或控制其操作,化简运算加速器206也是由化简运算加速控制器204生成、删除并控制其操作。
映射运算加速控制器200根据主节点102的映射运算请求生成一个以上的映射运算加速器202,并控制所生成的映射运算加速器202的操作。映射运算加速控制器200可以存在于映射节点的任务跟踪器110内,也可以独立于任务跟踪器110而构成为单独的模块。
映射运算加速器202合并映射节点上的映射运算之后生成的多个数据块而生成数据流,生成用于传送所述数据流的传送信道。例如,映射运算加速器202可在映射节点的存储器上合并多个数据块而生成所述数据流。
化简运算加速控制器204根据主节点102的化简运算请求生成一个以上的化简运算加速器206,并控制所生成的化简运算加速器206的操作。化简运算加速控制器204也与映射运算加速控制器200相同,可以存在于化简节点的任务跟踪器110之内,也可以独立于任务跟踪器110而构成为单独的模块。
化简运算加速器206通过映射运算加速器202上生成的所述传送信道从映射运算加速器202接收所述数据流,并从所接收的所述数据流复原所述多个数据块而提供给化简节点的映射和化简运算器112,由此使化简运算得以执行。例如,化简运算加速器206可在化简节点的存储器上基于数据流复原多个数据块。
根据本发明实施例的映射和化简加速器114并不改变现有的映射和化简运算框架的结构或增加新的模块。即,在本发明中,映射和化简运算加速器114与用于映射和化简运算的映射和化简运算框架分开而作为单独的模块存在,在功能上位于映射和化简运算框架的下位区域。而且,映射和化简运算加速器114位于程序库和OS内核模块的上位层,起到使映射和化简运算框架实现利用RDMA功能的高速数据传送的一种接口的功能,其中该程序库提供为了对通过网络传送数据的过程进行加速而使用的远程直接存取(RDMA)功能。
图3为用于说明根据本发明一实施例的映射运算加速控制器200的详细组成的框图。如图所示,根据本发明一实施例的映射运算加速控制器200包括映射运算加速器控制单元300、资源请求处理单元302、重定向单元304。
映射运算加速器控制单元300根据主节点102的映射运算请求生成一个以上的映射运算加速器202,并按照所生成的各个映射运算加速器202分别分配存储于本地文件系统106的数据。
资源请求处理单元302在从所生成的映射运算加速器202接收到运算加速器追加请求时,向映射运算加速器控制单元300请求追加生成一个以上的映射运算加速控制器200。
重定向单元304在从化简节点接收到针对由映射运算加速器202生成的所述数据流的传送请求时,将所述数据流传送请求重定向(redirection)到映射运算加速器202所生成的传送信道,据此使化简节点通过所述传送信道接收到所述数据流。
图4为用于说明根据本发明一实施例的映射运算加速器202的详细组成的框图。如图所示,根据本发明一实施例的映射运算加速器202包括接收单元400、资源监控单元402、数据块输入输出单元404、数据块合并单元406、传送信道控制单元408。
接收单元400从映射运算加速器控制单元300接收控制命令,并将该控制命令传递给映射运算加速器202内的其他组件。
资源监控单元402监控由映射运算加速器控制单元300请求的数据的容量和分配到当前映射运算加速器202的内存容量等,判断是否需要增加映射运算加速器202。若进行判断结果,判断为所请求的数据容量超出可处理容量时,资源监控单元402向资源请求处理单元302请求追加生成映射运算加速器202。
数据块输入输出单元404访问映射节点的本地文件系统106而读取所存储的多个数据块。此时,所述数据块表示映射节点的映射和化简运算器112所生成的映射运算结果数据。
数据块合并单元406合并由数据块输入输出单元404读取的所述多个数据块而生成数据流。
传送信道控制单元408生成用于传送由数据块合并单元406生成的所述数据流的传送信道,且根据化简节点的化简运算加速器206的请求通过所述传送信道将所述数据流发送给所述化简节点。此时,所述传送信道可以是远程直接存取(RDMA)信道或以太网信道中的某一个。即,传送信道控制单元408根据化简节点的化简运算加速器206的请求生成RDMA信道或一般以太网信道,并通过这些信道使所述数据流产生流动。
图5为用于说明根据本发明一实施例的化简运算加速器206的详细组成的框图。如图所示,根据本发明一实施例的化简运算加速器206包括接收单元500、传送信道控制单元502、数据块分离单元504、数据块输入输入单元506。
接收单元500从化简运算加速控制器204接收控制命令,并将该控制命令传递给化简运算加速器206之内的其他组件。
传送信道控制单元502通过映射节点的映射运算加速器202侧生成的传送信道接收数据流。传送信道控制单元502生成一个以上的客户机端信道连接器,并可通过所述客户机端信道连接器从所述映射运算加速器202接收所述数据流。
数据块分离单元504从接收到的所述数据流复原出多个数据块。
数据块输入输出单元506将经复原的所述多个数据块提供给化简节点的映射和化简运算器112,以使化简运算能够执行。
图6为用于说明在根据本发明一实施例的映射运算加速控制器200中控制映射运算加速器202的过程的图。
首先,映射节点的任务跟踪器110根据来自工作跟踪器108的映射运算请求向映射运算加速控制器200的映射运算加速器控制单元300请求运行映射运算加速器202(S602)。于是,映射运算加速器控制单元300根据上述请求生成新的映射运算加速器202并将作业分配给所生成的映射运算加速器202(S604)。
之后,运行的映射运算加速器202考虑到本身可吞吐的资源(最大可输入输出文件描述符数和当前可使用的内存和数据的总量),当需要的资源超出本身所能够吞吐的资源时,向映射运算加速控制器200的资源请求处理单元302请求追加运行映射运算加速器202(S606)。
接收到所述请求的资源请求处理单元302将该请求传递给映射运算加速器控制单元300,而映射运算加速器控制单元300追加运行映射运算加速器202(S608)。
之后,追加运行的映射运算加速器202点检当前剩余的数据的量和文件数,并考虑本身能够分担的文件描述符数、可用内存等的资源,当需要追加映射运算加速器202时,可再次向映射运算加速控制器200请求追加运行映射运算加速器202。即,上述过程直到所生成的映射运算加速器202的处理容量能够足够处理所请求的数据的输入输出为止一直重复。
图7和图8为用于说明根据本发明一实施例的利用映射和化简运算加速器114的映射和化简运算加速过程的图,图7用于说明在映射节点上的映射和化简运算加速步骤,图8用于说明在化简节点上的映射和化简运算加速步骤。
首先,映射节点的任务跟踪器110从主节点102的工作跟踪器108接收到映射运算运行请求时,任务跟踪器110利用映射运算器112a执行布置到相关节点的映射运算,并将执行结果数据存储在本地文件系统106(S702)。
之后,映射运算加速控制器200的映射运算加速器控制单元300生成映射运算加速器202的一个实例(instance)(S704),将作业分配给所生成的映射运算加速器202(S706)。生成的映射运算加速器202的资源监控单元402点检被请求的数据的块文件数、当前节点的内存容量等,当判断为当前运行的映射运算加速器202的处理容量无法处理被请求的数据时,向映射运算加速控制器200的资源请求处理单元302请求追加生成映射运算加速器202(S708)。于是,映射运算加速器控制单元300根据通过资源请求处理单元302接收的所述追加生成加速器的请求,追加生成一个以上的映射运算加速器。这样的映射运算加速器202的追加直到生成能够充分地输入输出当前请求的数据的映射运算加速器202为止一直重复。
接着,所生成的每个映射运算加速器202的接收单元400从映射运算加速器控制单元300接收针对存储在本地文件系统106的数据的处理请求,将该请求传递给数据块输入输出单元404(S710)。而且,映射运算加速器控制单元300通过接收单元400,使传送信道控制单元生成RDMA信道702或以太网信道704并使其待机(S712)。
接着,每个映射运算加速器202内的数据块输入输出单元404读取存储在所述映射节点的本地文件系统106的映射运算的结果数据块而传递给数据块合并单元406(S714、S716),数据块合并单元406合并所述数据块而生成一个数据流(S718)。于是,传送信道控制单元408通过生成的RDMA信道702或以太网信道704的服务器端信道连接器706、708传送所生成的数据流。
另外,映射运算加速控制器200的重定向单元304从化简节点内的化简运算器112b接收关于映射运算结果的传送请求,并将所述传送请求重定向(redirection)到所生成的RDMA信道702或以太网信道704,以使化简运算器112b能够通过RDMA信道702或以太网信道704接收到映射运算结果(S724、S726)。
以下,参照图8对于在化简节点上的映射和化简运算加速步骤进行说明。
首先,化简节点的化简运算加速控制器204根据化简节点的任务跟踪器110的请求运行化简运算加速器206(S802),且请求化简运算器112b利用从映射节点的重定向单元304接收的RDMA信道702或以太网信道704信息从映射节点读取数据(S804)。
化简运算加速器206的传送信道控制单元502利用接收单元500接收所述请求(S806),并生成客户机端RDMA信道连接器802或客户机端以太网连接器804之后,访问服务器端RDMA信道连接器706或服务器端以太网信道连接器708而构建连接,并通过该连接接收数据流(S808、S810)。
数据块分离单元504从传送信道控制单元502接收所述数据流(S812),并基于所接收的所述数据流复原多个数据块(S814)。之后,数据块输入输出单元506将复原的所述多个数据块提供给所述化简运算器112b,以能够执行化简运算(S816)。
图9为用于说明根据本发明一实施例的映射运算加速器202和化简运算加速器206之间的信道生成过程的顺序图。
首先,化简运算加速器206的传送信道控制单元502根据化简运算器112b的请求生成信道连接器。在图示的实施例中,虽然示出了所述信道连接器为RDMA信道连接器802的实施例,但本发明并不局限于此,所生成的信道连接器可根据映射运算节点上生成的数据传送信道的种类可以是RDMA信道连接器802或一般的以太网信道连接器804。
所生成的信道连接器802向映射运算加速器202端的信道事件发生器902发送信道连接请求事件(S902),而接收此的信道事件发生器902向服务器端信道702(RDMA服务器信道或以太网服务器信道)传递信道连接请求事件(S904)。于是,服务器端信道702根据所述信道连接请求事件生成信道连接器806(RDMA信道连接器706或以太网信道连接器708)并使其待机(S906)。
之后,服务器端信道702向化简节点的信道事件发生器904发送连接请求同意消息(S908)时,信道事件发生器904向信道事件处理器906产生信道连接结束事件(S910)。于是,信道事件处理器906将信道连接结束通知发送给化简运算加速器端信道连接器802、804而使其准备传送数据流(S912)。
另外,当同意所述连接请求的服务器端信道702向信道事件发生器902传递信道连接器生成事件(S914),信道事件发生器902据此向服务器端信道702产生信道连接结束事件(S916)。之后,服务器端信道702向信道连接器706、708发送信道连接结束通知,以使化简运算加速器206端信道连接器802、804能够接收到数据流(S918)。
图10为用于说明根据本发明一实施例的映射或化简运算加速器之间的信道连接被解除的过程的顺序图。在本发明的实施例中,映射运算加速器202和化简运算加速器206之间的信道连接可通过映射运算加速器202或化简运算加速器206中的一个加速器的连接解除请求而得以执行。在此,为了便于说明,将发送连接解除请求的映射运算加速器202或化简运算加速器206称为第一运算加速器,将接收所述连接解除请求的映射运算加速器202或化简运算加速器206称为第二运算加速器。
在本发明的实施例中,各个映射运算加速器202或化简运算加速器206根据相关的映射运算或化简运算中将要使用的数据块的数和数据量通过互不相同的数量的信道连接器收发数据流。据此,各个映射运算加速器202和化简运算加速器206中产生数量分别不同的信道连接器,因此为了在传送数据流之后稳定地解除连接,需要专门的协议。
首先,第一加速器的传送信道控制单元1002接收到解除连接请求时(S1002),传送信道控制单元1002为了解除连接于本身的第二运算加速器的连接而向第二运算加速器的传送信道控制单元1004发送解除连接请求(S1004)。此时,传送信道控制单元1002将与第二运算加速器建立的信道连接器的数量(连接解除消息数,sent_count)连同所述连接解除请求一起进行发送。
接收到所述解除连接请求的第二运算加速器的传送信道控制单元1004直到从第一运算加速器接收到与接收到的sent_count相当的解除连接消息为止一直待机(S1006),当数量与解除连接消息数相等的解除连接消息到达时,向第一运算加速器端传递解除连接准备结束的消息(S1008),由此解除与相关运算加速器的连接(S1010)。接收到解除连接准备结束的信号的第一运算加速器根据所述解除连接准备结束消息解除与第二运算加速器的连接的同时结束数据流的传送(S1012)。
通过以上的过程而解除各个运算加速器之间的信道连接时,具有可防止当前正在传送数据流的信道连接器还存在的状态下与对方的连接发生解除的优点。
另外,本发明的实施例还可以包括计算机可读记录介质,该计算机可读记录介质包括可在计算机执行本说明书所记述的方法的程序。所述计算机可读记录介质可单独包括程序命令、本地数据文件、本地数据结构等或可以包括其组合。所述介质可以是为了本发明而特意设计并构成的介质,也可以是计算机软件领域中具有通常的知识的技术人员所公知并可以使用的介质。计算机可读记录介质的例包括硬盘、软盘、磁带之类的磁介质;CD-ROM、DVD之类的光记录介质、软盘之类的磁-光记录介质以及ROM、RAM、闪存等的特别构成为存储程序命令并执行的硬件装置。程序命令的例不仅包括由编译器制作的机械代码,还包括使用解释器等而能够在计算机执行的高级语言代码。
以上,虽然通过代表性实施例对本发明进行了详细说明,但本发明所属技术领域中具有通常知识的技术人员应可以理解,在不脱离本发明的范围的情况下,可进行各种变更。
因此,本发明的权利范围并不能局限于所说明的实施例,不仅由权利要求书定义,还由与权利要求书等同的内容定义。

Claims (26)

1.一种映射和化简运算加速系统,包括:一个以上的映射节点,根据主节点的映射运算请求执行映射运算;一个以上的化简节点,利用所述映射运算结果数据执行化简运算,
其中,所述映射节点包括将执行所述映射运算之后生成的多个数据块进行合并而生成数据流,并生成用于传送所述数据流的传送信道的一个以上的映射运算加速器,
所述化简节点包括通过所述传送信道从所述映射运算加速器接收所述数据流,并基于所接收的所述数据流复原所述多个数据块而提供给所述化简运算的一个以上的化简运算加速器。
2.根据权利要求1所述的映射和化简运算加速系统,其特征在于,所述映射节点还包括根据所述映射运算请求生成所述一个以上的映射运算加速器的映射运算加速控制器。
3.根据权利要求2所述的映射和化简运算加速系统,其特征在于,所述映射运算加速控制器在接收到运算加速器追加请求时,追加生成一个以上的映射运算加速器。
4.根据权利要求2所述的映射和化简运算加速系统,其特征在于,所述映射运算加速控制器在从所述化简节点接收到所述数据流传送请求时,将所述数据流传送请求重定向到所述传送信道。
5.根据权利要求1所述的映射和化简运算加速系统,其特征在于,所述映射运算加速器在所述映射节点的存储器上合并所述多个数据块而生成所述数据流。
6.根据权利要求1所述的映射和化简运算加速系统,其特征在于,所述映射运算加速器包括:
数据块输入输出单元,读取存储在所述映射节点的本地文件系统的多个数据块;
数据块合并单元,合并由所述数据块输入输出单元读取的所述多个数据块而生成数据流;
传送信道控制单元,生成用于传送所述数据流的传送信道,并根据所述化简运算加速器的请求通过所述传送信道将所述数据流发送至所述化简节点。
7.根据权利要求6所述的映射和化简运算加速系统,其特征在于,所述传送信道是远程直接存取信道或者以太网信道中的一个。
8.根据权利要求6所述的映射和化简运算加速系统,其特征在于,所述传送信道控制单元根据所述化简运算加速器的请求生成一个以上的服务器端信道连接器,并通过所生成的所述服务器端信道连接器向所述化简运算加速器发送所述数据流。
9.根据权利要求1所述的映射和化简运算加速系统,其特征在于,所述化简节点还包括根据所述主节点的化简运算请求生成所述一个以上的化简运算加速器的化简运算加速控制器。
10.根据权利要求9所述的映射和化简运算加速系统,其特征在于,所述化简运算加速控制器在从所述映射节点接收到所述传送信道信息时,利用所接收的传送信道信息向所生成的所述化简运算加速器请求接收所述数据流。
11.根据权利要求1所述的映射和化简运算加速系统,其特征在于,所述化简运算加速器在所述化简节点的存储器上基于所述数据流复原所述多个数据块。
12.根据权利要求1所述的映射和化简运算加速系统,其特征在于,所述化简运算加速器包括:
传送信道控制单元,利用在所述映射运算加速器端生成的所述传送信道接收所述数据流;
数据块分离单元,从所接收的所述数据流复原所述多个数据块;
数据块输入输出单元,将复原的所述多个数据块提供给所述化简节点的化简运算器。
13.根据权利要求12所述的映射和化简运算加速系统,其特征在于,所述传送信道控制单元生成一个以上的客户机端信道连接器,并利用所生成的所述客户机端信道连接器从所述映射运算加速器接收所述数据流。
14.根据权利要求13所述的映射和化简运算加速系统,其特征在于,所述化简运算加速器在完成所述数据流的接收时,向所述映射运算加速器发送信道连接解除请求,所述信道连接解除请求包括所生成的所述客户机端信道连接器的数量。
15.根据权利要求14所述的映射和化简运算加速系统,其特征在于,接收到所述信道连接解除请求的所述映射运算加速器在接收到与从所述化简运算加速器接收到的信道连接器的数量相等的连接解除消息时,发送关于所述信道连接解除请求的响应,并解除与所述化简运算加速器的信道连接。
16.一种映射和化简运算加速方法,其为在包括根据主节点的映射运算请求执行映射运算的一个以上的映射节点以及利用所述映射运算结果数据执行化简运算的一个以上的化简节点的映射和化简运算加速系统中执行的映射和化简运算加速方法,包括如下步骤:
在所述映射节点的一个以上的映射运算加速器中,将执行所述映射运算之后生成的多个数据块进行合并而生成数据流,并生成用于传送所述数据流的传送信道;
在所述化简节点的一个以上的化简运算加速器中,通过所述传送信道从所述映射运算加速器接收所述数据流;
在所述一个以上的化简运算加速器中,从接收的所述数据流复原所述多个数据块而提供给所述化简运算。
17.根据权利要求16所述的映射和化简运算加速方法,其特征在于,在执行生成所述传送信道的步骤之前,还包括步骤:在所述映射节点的映射运算加速控制器中,根据所述映射运算请求生成所述一个以上的映射运算加速器。
18.根据权利要求17所述的映射和化简运算加速方法,其特征在于,生成所述一个以上的映射运算加速器的步骤中还包括步骤:当接收到运算加速器追加请求时,追加生成一个以上的映射运算加速器。
19.根据权利要求17所述的映射和化简运算加速方法,其特征在于,所述映射运算加速控制器在从所述化简节点接收到所述数据流传送请求时,将所述数据流传送请求重定向到生成的所述传送信道。
20.根据权利要求16所述的映射和化简运算加速方法,其特征在于,所述传送信道是远程直接存取信道或者以太网信道中的一个。
21.根据权利要求16所述的映射和化简运算加速方法,其特征在于,所述映射运算加速器根据所述化简运算加速器的请求生成一个以上的服务器端信道连接器,并通过所生成的所述服务器端信道连接器向所述化简运算加速器发送所述数据流。
22.根据权利要求16所述的映射和化简运算加速方法,其特征在于,在执行接收所述数据流的步骤之前还包括步骤:在所述化简节点的化简运算加速控制器中,根据所述主节点的化简运算请求生成所述一个以上的化简运算加速器。
23.根据权利要求22所述的映射和化简运算加速方法,其特征在于,所述化简运算加速控制器在从所述映射节点接收到所述传送信道信息时,利用所接收的所述传送信道信息向所述化简运算加速器请求接收所述数据流。
24.根据权利要求22所述的映射和化简运算加速方法,其特征在于,接收所述数据流的步骤中,生成一个以上的客户机端信道连接器,并利用所述传送信道信息构建所述客户机端信道连接器和所述映射运算加速器端生成的服务器端信道连接器之间的信道连接,由此从所述映射运算加速器接收所述数据流。
25.根据权利要求24所述的映射和化简运算加速方法,其特征在于,在执行接收所述数据流的步骤之后,还包括步骤:在所述化简运算加速器中,向所述化简运算加速器发送信道连接解除请求,
其中,所述信道连接解除请求包括所述化简运算加速器和所述映射运算加速器之间构建的信道连接数量。
26.根据权利要求25所述的映射和化简运算加速方法,其特征在于,接收到所述信道连接解除请求的所述映射运算加速器在从所述化简运算加速器接收到与接收到的所述信道连接数量相等的连接解除消息时,向所述化简运算加速器发送关于所述信道连接解除请求的响应,并解除与所述化简运算加速器的信道连接。
CN201310381432.7A 2013-05-31 2013-08-28 映射和化简运算加速系统及方法 Expired - Fee Related CN104216865B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0062302 2013-05-31
KR20130062302A KR101480867B1 (ko) 2013-05-31 2013-05-31 맵리듀스 연산 가속 시스템 및 방법

Publications (2)

Publication Number Publication Date
CN104216865A CN104216865A (zh) 2014-12-17
CN104216865B true CN104216865B (zh) 2017-08-08

Family

ID=51986312

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310381432.7A Expired - Fee Related CN104216865B (zh) 2013-05-31 2013-08-28 映射和化简运算加速系统及方法

Country Status (4)

Country Link
US (1) US9753783B2 (zh)
KR (1) KR101480867B1 (zh)
CN (1) CN104216865B (zh)
WO (1) WO2014193037A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148736B1 (en) * 2014-05-19 2018-12-04 Amazon Technologies, Inc. Executing parallel jobs with message passing on compute clusters
US10095654B2 (en) * 2014-09-30 2018-10-09 International Business Machines Corporation Mapping and reducing
US9923726B2 (en) * 2014-12-03 2018-03-20 International Business Machines Corporation RDMA transfers in mapreduce frameworks
CN105045566B (zh) * 2015-08-13 2018-11-20 山东华宇航天空间技术有限公司 一种嵌入式并行计算系统及采用其的并行计算方法
CN105141603B (zh) * 2015-08-18 2018-10-19 北京百度网讯科技有限公司 通信数据传输方法及系统
EP3376399A4 (en) * 2015-12-31 2018-12-19 Huawei Technologies Co., Ltd. Data processing method, apparatus and system
KR102592611B1 (ko) 2016-02-18 2023-10-23 한국전자통신연구원 맵 리듀스 장치, 맵 리듀스 제어장치 및 그 방법
KR102002246B1 (ko) * 2018-02-28 2019-10-01 연세대학교 산학협력단 빅데이터 처리를 위한 자원 분배 방법 및 장치
US11474700B2 (en) * 2019-04-30 2022-10-18 Intel Corporation Technologies for compressing communication for accelerator devices
US10826801B1 (en) 2019-07-31 2020-11-03 Bank Of America Corporation Multi-level data channel and inspection architectures
US11115310B2 (en) 2019-08-06 2021-09-07 Bank Of America Corporation Multi-level data channel and inspection architectures having data pipes in parallel connections
US11470046B2 (en) 2019-08-26 2022-10-11 Bank Of America Corporation Multi-level data channel and inspection architecture including security-level-based filters for diverting network traffic

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102426609A (zh) * 2011-12-28 2012-04-25 厦门市美亚柏科信息股份有限公司 一种基于MapReduce编程架构的索引生成方法和装置
CN102685221A (zh) * 2012-04-29 2012-09-19 华北电力大学(保定) 一种状态监测数据的分布式存储与并行挖掘方法
CN102831102A (zh) * 2012-07-30 2012-12-19 北京亿赞普网络技术有限公司 一种在计算机集群上进行矩阵乘积运算的方法和系统

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19906432C1 (de) * 1999-02-16 2000-06-21 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Erzeugen eines Datenstroms und Verfahren und Vorrichtung zum Abspielen eines Datenstroms
US20030043794A1 (en) * 2001-09-06 2003-03-06 Cayton Phil C. Data stream multiplexing in data network
US8374175B2 (en) * 2004-04-27 2013-02-12 Hewlett-Packard Development Company, L.P. System and method for remote direct memory access over a network switch fabric
US7650331B1 (en) * 2004-06-18 2010-01-19 Google Inc. System and method for efficient large-scale data processing
CN101336397B (zh) * 2006-02-06 2012-06-20 西门子公司 存储具有控制技术过程的数据的数据模块的方法以及控制装置和自动化装置
US7817634B2 (en) * 2006-06-30 2010-10-19 Intel Corporation Network with a constrained usage model supporting remote direct memory access
US8677003B1 (en) * 2007-10-11 2014-03-18 Liveops, Inc. Distributed processing of streaming data on an event protocol
KR100907533B1 (ko) * 2007-12-17 2009-07-14 한국전자통신연구원 작업 분산 병렬 처리 시스템 및 방법
US20100205075A1 (en) * 2009-02-11 2010-08-12 Yahoo! Inc. Large-scale item affinity determination using a map reduce platform
US8510538B1 (en) * 2009-04-13 2013-08-13 Google Inc. System and method for limiting the impact of stragglers in large-scale parallel data processing
US9497039B2 (en) * 2009-05-28 2016-11-15 Microsoft Technology Licensing, Llc Agile data center network architecture
US8397293B2 (en) * 2009-12-31 2013-03-12 International Business Machines Corporation Suspicious node detection and recovery in mapreduce computing
CN102209087B (zh) * 2010-03-31 2014-07-09 国际商业机器公司 在具有存储网络的数据中心进行MapReduce数据传输的方法和系统
US8595234B2 (en) * 2010-05-17 2013-11-26 Wal-Mart Stores, Inc. Processing data feeds
US9170848B1 (en) * 2010-07-27 2015-10-27 Google Inc. Parallel processing of data
US8260826B2 (en) * 2010-09-23 2012-09-04 Hewlett-Packard Development Company, L.P. Data processing system and method
KR101158864B1 (ko) * 2010-10-22 2012-06-25 동국대학교 경주캠퍼스 산학협력단 맵리듀스 기반의 대용량 데이터 분산 계산 방법 및 그 시스템
KR101502896B1 (ko) * 2011-02-14 2015-03-24 주식회사 케이티 맵 리듀스를 이용한 분산 메모리 클러스터 제어 장치 및 방법
US9798831B2 (en) * 2011-04-01 2017-10-24 Google Inc. Processing data in a MapReduce framework
US8924426B2 (en) * 2011-04-29 2014-12-30 Google Inc. Joining tables in a mapreduce procedure
US8954967B2 (en) * 2011-05-31 2015-02-10 International Business Machines Corporation Adaptive parallel data processing
US8903748B2 (en) * 2011-06-27 2014-12-02 International Business Machines Corporation Systems and methods for large-scale randomized optimization for problems with decomposable loss functions
US9053067B2 (en) * 2011-09-30 2015-06-09 International Business Machines Corporation Distributed data scalable adaptive map-reduce framework
US9122535B2 (en) * 2011-11-22 2015-09-01 Netapp, Inc. Optimizing distributed data analytics for shared storage
WO2013153029A1 (en) * 2012-04-12 2013-10-17 Telefonica, S.A. Method and system for managing and processing data in a distributed computing platform
US8990294B2 (en) * 2012-04-18 2015-03-24 International Business Machines Corporation File system optimization by log/metadata analysis
US20140059552A1 (en) * 2012-08-24 2014-02-27 International Business Machines Corporation Transparent efficiency for in-memory execution of map reduce job sequences
EP2746941A1 (en) * 2012-12-20 2014-06-25 Thomson Licensing Device and method for optimization of data processing in a MapReduce framework
US20150358425A1 (en) * 2013-01-22 2015-12-10 Hewlett-Packard Development Company, L.P. Processing Data Streams
US9152469B2 (en) * 2013-01-28 2015-10-06 Hewlett-Packard Development Company, L.P. Optimizing execution and resource usage in large scale computing
CN105074677B (zh) * 2013-03-12 2018-01-26 英派尔科技开发有限公司 用于加速器将数据存储在缓冲器中的方法的方法和系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102426609A (zh) * 2011-12-28 2012-04-25 厦门市美亚柏科信息股份有限公司 一种基于MapReduce编程架构的索引生成方法和装置
CN102685221A (zh) * 2012-04-29 2012-09-19 华北电力大学(保定) 一种状态监测数据的分布式存储与并行挖掘方法
CN102831102A (zh) * 2012-07-30 2012-12-19 北京亿赞普网络技术有限公司 一种在计算机集群上进行矩阵乘积运算的方法和系统

Also Published As

Publication number Publication date
US9753783B2 (en) 2017-09-05
WO2014193037A1 (ko) 2014-12-04
KR101480867B1 (ko) 2015-01-09
CN104216865A (zh) 2014-12-17
US20140358869A1 (en) 2014-12-04
KR20140141053A (ko) 2014-12-10

Similar Documents

Publication Publication Date Title
CN104216865B (zh) 映射和化简运算加速系统及方法
US9575689B2 (en) Data storage system having segregated control plane and/or segregated data plane architecture
US7209972B1 (en) High speed data transfer mechanism
US8010707B2 (en) System and method for network interfacing
US11716271B2 (en) Automated data flows using flow-based data processor blocks
EP3346379B1 (en) Database management system with dynamic allocation of database requests
US9396069B2 (en) Cost reduction for servicing a client through excess network performance
WO2011120791A1 (en) Transmission of map-reduce data based on a storage network or a storage network file system
US9152603B1 (en) System and method for increasing application compute client data I/O bandwidth performance from data file systems and/or data object storage systems by hosting/bundling all of the data file system storage servers and/or data object storage system servers in the same common global shared memory compute system as the application compute clients
CN114153778A (zh) 跨网络桥接
CN114201421B (zh) 一种数据流处理方法、存储控制节点及可读存储介质
US20240106893A1 (en) Filecoin cluster data transmission method and system based on remote direct memory access
CN109547537A (zh) 基于SAN存储共享卷实现openstack高可用的方法
US7460550B2 (en) Storage structure and method utilizing multiple protocol processor units
CN109347899A (zh) 在分布式存储系统中写入日志数据的方法
US10523741B2 (en) System and method for avoiding proxy connection latency
US10673801B2 (en) Dynamic communication session management
CN116489177A (zh) 一种基于块存储的io访问方法、装置、电子设备及介质
WO2024021470A1 (zh) 一种跨区域的数据调度方法、装置、设备及存储介质
Wang et al. Coupling GPU and MPTCP to improve Hadoop/MapReduce performance
WO2014077451A1 (ko) Iscsi 스토리지 시스템을 이용한 네트워크 분산 파일 시스템 및 방법
KR102128832B1 (ko) 네트워크 인터페이스 장치 및 그 네트워크 인터페이스 장치의 데이터 처리 방법
US9639630B1 (en) System for business intelligence data integration
US11330032B2 (en) Method and system for content proxying between formats
CN112352228A (zh) 数据存储系统和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170808

Termination date: 20200828

CF01 Termination of patent right due to non-payment of annual fee