CN104380260B - 利用可伸缩网格计算的储层仿真 - Google Patents

利用可伸缩网格计算的储层仿真 Download PDF

Info

Publication number
CN104380260B
CN104380260B CN201380028645.XA CN201380028645A CN104380260B CN 104380260 B CN104380260 B CN 104380260B CN 201380028645 A CN201380028645 A CN 201380028645A CN 104380260 B CN104380260 B CN 104380260B
Authority
CN
China
Prior art keywords
processor
node
cluster
reservoir
reservoir simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380028645.XA
Other languages
English (en)
Other versions
CN104380260A (zh
Inventor
雷德·阿卜杜拉·阿勒-谢赫
M·伊泰莎姆·海德尔
迈迪·A·巴杜拉
奥马尔·A·阿勒-萨东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saudi Arabian Oil Co
Original Assignee
Saudi Arabian Oil Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saudi Arabian Oil Co filed Critical Saudi Arabian Oil Co
Publication of CN104380260A publication Critical patent/CN104380260A/zh
Application granted granted Critical
Publication of CN104380260B publication Critical patent/CN104380260B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. for interpretation or for event detection
    • G01V1/30Analysis
    • G01V1/301Analysis for determining seismic cross-sections or geostructures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/501Performance criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

不同代和不同性能速度的更大、可扩展高性能计算(HPC)集群被提供用于储层仿真。这提供了在HPC机器上运行高密度计算储层仿真任务的可伸缩性和灵活性。在处理器集用场中的更多数量的处理器的可用性使得巨型模型的仿真成为可能,并且当运行多个任务时还降低了碎片化。基于硬件性能的域分解被执行,使得计算负荷平衡。储层域被有效分解,从而减少了通信开销。可用计算资源的混合体的适应性检测被执行,并且储层仿真分解方法基于可用硬件和不同代处理器资源来调整负荷分布,从而最小化储层仿真时间。

Description

利用可伸缩网格计算的储层仿真
相关申请的交叉引用
本申请要求于2012年5月31日提交的美国临时专利申请第61/653,501号的优先权。出于美国专利实践的目的,本申请通过全部引用将所述临时申请的内容并入。
技术领域
本申请涉及利用高性能计算(HPC)集群对地下油气储层的计算机化仿真,特别是利用具有不同发展阶段的处理器的子集群的可伸缩和可扩展HPC集群。
背景技术
在石油和天然气工业中,针对用于探测和生产目的的计算机化仿真、建模和分析,需要处理大量的数据。例如,地下油气储层的开发通常包括储层的计算机仿真模型的开发和分析。这些地下油气储层通常是含有石油流体混合物和水的复杂岩层。储层流体成分通常以两种或多种流体相的形式存在。通过钻入这些岩层并且在这些岩层中完井的油井来生产储层流体中的石油混合物。
储层的地质学仿真模型、以及储层的流体的存在也有助于预测油气储层的最优未来油气开采。石油和天然气公司已依赖地质模型作为增强开采石油储备的能力的重要工具。
在仿真模型中,储层被组织为若干独立单元。越来越精确的地震数据已允许这些单元在25米区域(x和y轴)间隔的级别上。对于所谓的巨型储层而言,单元的数量至少是几亿个,存在所谓的千兆单元规模(十亿个单元以上)的储层。
已可用的一种用于处理在储层仿真中所遇到类型的大量数据的计算机系统是高性能计算(HPC)网格。HPC网格系统采用将一组强大的工作站或服务器组合为网络,从而起到一台超级计算机的作用。
美国专利第7,526,418(其由本申请的受让人所拥有)涉及用于由大量单元组成的巨型油气储层的仿真器。该仿真器主要使用高性能计算机(HPC)。集群计算机之间的通信根据传统、标准的方法(例如以上提及的MPI和Open MP)来执行。
高性能计算(HPC)网格通常针对它们的来自提供HPC的制造商的计算机硬件设置了三年的更换周期。通常,每年购买针对运行储层仿真而设计的新的HPC计算机系统,以作为旧系统的替换,或者作为计算需求的额外补充以运行更大的模型。因此,具有这种更换周期的HPC数据中心通常具有至少三代的计算机硬件可用。这些现有系统占用空间、消耗电力和制冷。它们还需要维护支持合同。期望的是有效地利用这些系统。
这些系统之间的代的差异遵循摩尔定律,其中晶体管数量以及由此而导致的性能大约每十八个月到两年翻倍。可购买到的安装的HPC网格的第一代和第三代之间的性能和速度差异通常为三至四倍的级别。
用户趋向于需求更新、更快的系统(也称为子群集),而使得较旧的系统严重未充分利用。这些代的子集群以网格方式连接到一起,允许仿真任务跨隔多个子集群。实际上,这些子集群以独立方式使用,因为跨多代硬件分配计算资源使得仿真任务减慢到在分配中的最慢的硬件。
在HPC环境上运行储层仿真任务的当前模式是通过分配HPC子群集以用于用户的运行。由于计算节点之间所涉及的物理线路,导致这些物理集群一旦建立就无法变更。此外,当在计算节点之间分配负荷时,储层仿真软件假设相等工作负荷共享以及同构类型的CPU(即,相同速度),否则,如果它们不同,仿真器将基于集群中最慢的CPU运行。这已妨碍在网格计算机上运行更大仿真模型,并且还妨碍当互连到一起时异构物理机器的最优利用。
发明内容
简略地说,本发明提供了一种新的和改进的在数据处理系统中的储层仿真的计算机实现方法。该数据处理系统由多个处理器集群的处理器节点的统一集用场(unifi edpool)形成,至少一个处理器集群由与另一处理器集群中的处理器节点具有不同处理速度的处理器节点组成。该计算机实现方法响应于用户对储层仿真的请求,分配来自各处理器集群的可用处理器节点,并执行将储层数据分解为块的域分解以用于储层仿真。分配的处理器节点随后被分派给被分解的储层数据块的每个,并且在分配的处理器节点中执行所请求的储层仿真。
本发明还提供了一种新的和改进的数据处理系统,该数据处理系统包括多个处理器集群的处理器节点的统一集用场,至少一个处理器集群由与另一处理器集群中的处理器节点具有不同处理速度的处理器节点组成。所述数据处理系统中的处理器节点响应于用户对储层仿真的请求,分配来自各处理器集群的可用处理器节点,并执行将储层数据分解为块的域分解以用于该储层仿真。数据处理节点还将分配的处理器节点分派给被分解的储层数据块的每个,并且在分配的处理器节点中执行所请求的储层仿真。
本发明还提供了一种新的和改进的数据存储装置,该数据存储装置在非瞬时计算机可读介质中存储了用于在数据处理系统中的储层仿真的计算机可操作指令,该数据处理系统包括多个处理器集群的处理器节点的统一集用场,至少一个处理器集群由与另一处理器集群中的处理器节点具有不同处理速度的处理器节点组成。存储在数据存储装置中的指令使得数据处理系统响应于用户对储层仿真的请求,分配来自各处理器集群的可用的处理器节点,并执行将储层数据分解为块的域分解以用于该储层仿真。所述指令还使得数据处理系统将分配的处理器节点分派给被分解的储层数据块的每个,并且在分配的处理器节点中执行所请求的储层仿真。
附图说明
图1是用于高性能网格计算的现有技术数据处理系统的示意性框图。
图2是根据本发明的用于高性能网格计算的数据处理系统的示意性框图。
图3A是用于储层仿真的域分解策略的示意图。
图3B是用于储层仿真的另一域分解策略的示意图。
图4A是基于硬件性能因子在高性能计算网格中的处理器之间来根据本发明对储层网格块进行分配的示意图。
图4B是在高性能计算网格中的三代处理器之间的根据本发明的对储层网格块的分配的示意图。
图5是在高性能计算网格中的三代处理器之间的储层网格块的均匀二维域分解分配的示意图。
图6是在高性能计算网格中的三代处理器之间的储层网格块的非均匀二维域分解分配的示意图。
图7是针对根据本发明的利用可伸缩网格计算的储层仿真在图2的数据处理系统中执行的用于处理器的选择的一组计算机处理步骤的功能性框图。
图8示出了“执行分解”处理的扩展的子例程,即针对根据本发明的利用可伸缩网格计算的储层仿真在图2的数据处理系统中执行的用于储层域的分解的一组计算机处理迭代。
具体实施方式
本发明提供了针对储层仿真的可伸缩的网格计算,其中在处理器集群和子集群的集用场中的性能的代差异的潜在复杂性无需让用户获知。处理器的可用集用场作为统一的、更大的高性能计算(HPC)网格呈现给用户。当任务提交时,用户不知道发生的资源分配。本发明使用新的和改进的方法和工作流来从混合资源的可用集用场选择处理器,并且还提供了新的和改进的域分解策略来平衡异构处理器之间的负荷。
如前所述,目前已知的是,当前的储层仿真已在同构的、仅利用一种类型的处理器建立的计算机集群上执行。此外,各集群与其他子集群物理上分离,并且未与其他子集群互连。将处理器分配给任务的当前的批处理系统(batch system)根据用户请求随机分配处理器。不同代处理器在过去被分配类似工作量。由于集群是统一的,所有处理器具有相同速度。因此,哪些处理器被选择并不重要。
图1示出了根据现有技术配置的三代CPU的示例。在图1中G-1表示较旧代或第一代(Gen 1或类型1)CPU集群,G-2表示第二代或中间代(Gen 2或类型2)CPU集群以及G-3表示最近代或最新代(Gen n或类型3)CPU集群。图1中示出的CPU集群可例如由HP Linux集群计算机的节点组成。如图1所示和以上所述,图1的各CPU集群是同构的并且它们物理地分离,并且未彼此互连。
此外,与通常要由图1的CPU集群运行的仿真通常相关的储层模型M的二维域分解策略在三个CPU集群的每个中是相同的。通过传统网格分割对每个CPU集群进行分派以用于通过储层仿真器处理例如体积V的储层网格,但是,该体积V的储层网格不同于分派给其他处理器集群的储层网格。因此,针对根据现有技术的图1的同构集群的域分解策略不基于处理器性能来对处理器分配计算任务量。因此,如图5表示所示,利用不同代处理器(即,表示为G3的Gen 3比表示为G2的Gen 2或表示为G1的Gen 1快)对储层网格运行的仿真的传统二维域分解针对储层数据产生混合处理器分派,其中用户要求的处理器被批处理系统随机地分派给相等分割的计算任务。作为示例,如图5所示,储层网格中相同大小的计算任务量在三代处理器G1、G2和G3之间分配。
根据本发明,如图2所示,从不同CPU形成了子集群中的处理器节点的统一集用场P。因此,集用场P是异构的并且是混合式计算机集群,其由图2中G-1表示的较旧的代或第一代(Gen 1或类型1)CPU子集群、G-2表示的第二代或中间代(Gen 2或类型2)CPU子集群和G-3的最近代或最新代(Gen n或类型3)CPU子集群组成。虽然在集用场P中的三个CPU子集群中的处理器节点子集群根据它们的相对使用年限或代而具有不同的性能速度和特性,但是它们根据本发明被合并到集用场P中。通过采用无限带宽互联网络(Infiniband interwork)I的一个或多个交换机进行处理器节点的互连,以提供可用处理器的非常大的集用场。
然而,当将这些不同的子集群G-1、G-2和G-3互连并合并到集用场P中时,发现传统的现有域分解技术不再有效率或不再有效。利用工作速度不同但与每个子集群一起工作的不同子集群中的处理器,但是使用根据现有技术的如图1和图5中示出的传统网格分割,由此导致处理负荷失衡。许多快速处理器时常在等待较慢处理器完成它们的工作时空闲。全部或混合的处理工作只有当最慢的CPU已完成其被分配的工作时才结束。
因此,通过本发明,提供了新的域分解策略,使得处理器上分配的工作负荷与其性能成比例。如图2所示,较慢的最初一代处理器子集群G-1通过根据本发明的网格分割被分配了比分配给中间代处理器子集群G-2的工作负荷量V-2少的来自储层网格模型M的工作负荷量V-1。工作负荷量V-1和V-2均依次少于分配给较新代处理器子集群G-3的工作负荷量V-3。因此,本发明允许计算工作负荷的良好负荷平衡,因此提高了计算效率。本发明使用处理器的异构集用场P的相对硬件性能来选择最优的处理器子集。
本发明还分配计算任务(或域)使其可在处理器之间最优地划分。因此,本发明提供了更佳的计算负荷平衡并降低了储层仿真的运行时间。基于处理器的集用场的可用性和异构性,本发明允许调整工作负荷量分配或用户要求的批处理系统的处理器数量以最优化地运行储层仿真任务。本发明提供用于批处理系统的方法(图7)来从可用集用场选择处理器,并提供用于域分解的伴随方法(companion methodology,图8)以在选定处理器上最优化地分解储层仿真模型,该储层仿真模型被传送至后续阶段的仿真器。(基本上,在网格中从可用节点的集用场分配节点,之后基于“相关节点性能数据库D”给这些节点分配权重。然后,“域分解”例程(步骤112)运行以基于选定节点最优地找出最佳分布(步骤112在图8中扩展))。在最优地找出节点至块(nodes-to-blocks)的最佳组合之后,在步骤114中正式地将节点分派给块。
本发明针对储层仿真提供了建立和扩展更大的HPC集群的方法,从而避开了固定建造的HPC集群的缺点。本发明针对在HPC机器上运行这类计算密集型任务提供了可伸缩性和灵活性。在集用场中更多数量的处理器的可用性使得可以仿真巨型模型,同时,当运行多个任务时,减少了碎片化(fragmentati on)。本发明的基于硬件性能的域分解导致良好的负荷平衡,并且储层域被高效地分解,从而降低了通信开销。
相比于传统的当前使用的HPC,本发明解决了多个限制。第一,本发明解决了集群的碎片化问题,其是当使用一个集群时,由于未利用到的剩余节点导致的,这是因为这些未利用的节点由于集群之间的物理间隔导致无法移动到另一个子集群。第二,与在子集群之间分割仿真相比,本发明允许仿真更大的模型。第三,通过修改仿真器,本发明适于现有的异构计算机网格环境并且基于不同代的CPU调整节点之间的负荷分布(即,在流程运行时间期间将更少量任务分派给更慢的CPU)。第四,所提交的脚本提供了针对仿真的做出处理器的集用场的更好选择的机制。提交的脚本可容易地适应于任何所需的变化。根据本发明的硬件性能加权的域分解给出了处理器之间的计算负荷的良好负荷平衡。
本发明提供了当储层仿真在针对HPC网格的更大型异构HPC集群上运行时的动态环境。本发明有效形成了用于储层仿真的异构处理器的大计算集用场或网格,并以有效方式执行仿真。
计算集用场或网格P(图2)由使用不同代处理器的多个集群组成,这些不同代处理器被合并以创建具有可用处理器的大集用场P的网格。应当理解的是,可利用若干技术来连接集群。作为一个示例,通过大Qlogic集群交换机中的空闲端口,利用Qlogic无限带宽交换机来连接具有不同CPU类型的两个集群(图4A)。
本发明还提供了HPC网格或集用场P上的储层仿真的优化负荷平衡方法。以确保CPU之间良好的负荷平衡的方式将储层仿真的计算任务映射到异构集群或计算网格上。根据本发明的映射策略还降低了通信开销。当通过选择相邻节点/CPU来尽可能多地选择CPU时,该映射策略将网络流量局部化,从而最小化运行时间。
硬件性能因子
本发明提供了在任意时间从可用的异构处理器的集用场中选择一组处理器,以及通过计算机性能参数加权的任务分布。根据本发明的计算机性能参数是硬件性能因子(h)。
硬件性能因子(h)表示处理器执行储层仿真模型的大量操作的相对效率。优选地,其是测量每秒浮点运算速率(FLOPs)的基准性能。如将阐述的,根据本发明,在处理器集用场中的不同代处理器的硬件性能因子h被存储在性能数据库D中,以在处理器的分配期间使用。
计算负荷
此外,储层模型的计算负荷是单元块的数量、模型类型(重油、断裂模型、复合、双孔双渗、局部细化网格等)和用于解决所述问题的方法的函数。储层仿真模型的计算负荷可表达为R(N),其是单元块的数量(N)的单调函数。因为在储层仿真中众多因子的存在,R应当利用网格块的变化数量(N)通过基准实际仿真来测量。可通过变化的仿真参数(例如仿真模型中的相、断裂的存在等)来基准测试不同类的问题以利用这些参数获得R的校正。根据本发明,曾针对储层仿真模型的类型和复杂性而基准测试的计算负荷程度R被存储在网络效应数据库B中,以在处理器的分配期间使用。
如果无法得到这种校正,则可假定R如O(nlog10n)变化,其中n是处理器上的单元块的数量。选择nlog10n作为R的控制参数是来自于这样的假定:就有效求解器而言对n网格单元的求解时间应当如nlog10n变化。但是,如果求解方法花费O(n2)次运算来解具有规模n的问题,则R应当为n2而非nlog10n。
如果在P个处理器的同构集群上进行计算,则仿真时间应当如下变化,
T≌R(N)/(hPd) 方程式(1)
其中T是仿真时间,h是硬件性能因子,P是用于求解问题的处理器的数量,d是相当于一维分解的域分解效率因子(即,针对一维分解,d=1)。如果在具有硬件性能因子h1和h2的两种类型的处理器的异构集群上进行仿真,则仿真时间应当如下变化,
T≌[R(N1)/(h1P1d)+R(N-N1)/(h2P2d)] 方程式(2)
其中N1个网格块被分派给类型1处理器(总数P1)且(N-N1)个网格块被分派给类型2处理器(总数P2)。
显而易见地,如果使用包含不同CPU类型的网格取代单个高速网络来连接处理器,则存在速度变慢。本发明提供了避免这类速度变慢的方法。作为一个示例,针对具有属于集群1(其中处理器连接在快速网络上)的类型1处理器和属于集群2(其中处理器通过另一快速网络连接)的类型2处理器、并且集群1和集群2的连接是在比快速集群内网络慢一个因子(例如,G1-2)的网格上的数据处理系统,则方程式(2)变为
T≌[R(N1)/(h1P1d)+R(N-N1)/(h2P2d)]*G1-2 方程式(3)
对于具有带m个不同类型的异构处理器的集群的网格而言,方程式(3)可一般化为:
T≌[R(N1)/(h1P1d)+R(N2)/(h2P2d)+...+R(N-N1-N2...-Nm-1)/(hmPmd)]*G1-m 方程式(4)
应当注意到的是,如果域分解策略改变(例如:从一维到二维),则方程式(3)或方程式(4)中的数值d也改变。
储层的域分解
不同的域分解策略给出不同等级的复杂度和通信开销。例如,可考虑具有40单位长且50单位高的示例储层网格块的域,如图3A和图3B所示,使用一维或二维分块分解该域。
考虑利用二维分块的图3A中的阴影子域32,则获得下列测量值:子域32的面积(网格块的数量的测量值以及由此的计算负荷)=25*20=500;而与其他子域34和35相邻的表面积(测量通信开销)=25+20=45。
对于利用一维分块的图3B中的阴影子域36而言,获得下面的测量值:子域36的面积(网格块的数量的测量值或计算负荷)=50*10=500;而与其他子域37和38相邻的表面积(通信开销的测量值)=50+50=100。
可注意到的是,图3A和图3B中的两个块的示例的计算量相同,但是一维分块中的通信开销大于二维分块。通常,这对于域分解而言是事实。因此,所述方法优选地尽可能使用二维分块来分解域(储层),除非其使得处理器间的通信方法非常复杂。
硬件性能因子加权的域分解
根据本发明,执行硬件性能因子加权的域分解。硬件性能加权的域分解的目的是获得恒定或接近恒定的均一化负荷因子(L)的值,如下定义:
L=h*R(N) 方程式(5)
图4A示意性地示出了根据本发明的基于硬件性能因子(h)通过域分解对可用处理器节点的分派。如所示的那样,存在四个处理器:处理器1、处理器2、处理器3和处理器4。两个(处理器1和处理器2)具有硬件性能因子h1而另两个(处理器3和处理器4)具有硬件性能因子h2。向分配的这四个处理器节点分派网格块,使得这四个处理器具有相同值的均一化负荷因子L。针对图4A的储层仿真,数据处理系统的模型中的网格块的总数为N=2(N1+N2)。
因此,图4A是基于硬件性能因子加权的域分解的域分解示例。可以看出,更快的处理器被赋予更多数量的网格块(基于R的计算量)以实现处理器之间的负荷平衡。换句话说,h*R(N)对这四个处理器而言是相等的。可存在这样的情况,其中可能难以实现对所有处理器而言完全相等的L的值。于是,目标是在处理器之间获得大致相等的均一化负荷因子L(即,h*R(N))。
图4B是在具有不同代的处理器子集群的统一集用场P上运行的仿真的根据本发明的二维硬件性能因子加权的域分解的示意图。在图4B中,表示为G3的最近代Gen 3比表示为G2的Gen 2快,表示为G2的Gen 2比表示为G1的Gen 1快。如图4B中所示,在三代处理器G1、G2和G3之间根据本发明分配计算任务量,因此更快速的G3处理器被分配比中等速度处理器G2更多的要处理的数据量,而G2被分配比较慢速度的处理器G1更多的数据量。
处理器分配
图7示出了在处理器子集群的集用场P(图2)中执行的一组处理器步骤。如步骤100所示,批处理提交系统检查针对N个最新(Gen X)处理器或具有最高硬件性能因子h的处理器的用户请求。如步骤102所示,批处理提交系统将请求的代的数量与在可用资源集用场P中的任何一个单独的子集群中可用的请求的代的数量进行比较。在步骤102期间,如果确定用户请求的Gen X处理器的数量N在单个子集群上可以得到,从而满足该用户请求,则将用户请求的资源进行分派或使其可用。如步骤104所示,处理转移到传统分解和在单个子集群中的请求的N个处理器之间相等地随机分配仿真任务数据域。最优地,优选使用二维分解,除非N是素数,即,N无法被因式分解。在这种情况下,使用一维分解。
在步骤102期间,如果对可用资源集用场P的确定结果为否,则执行本发明的方法。本发明针对在来自集用场P的一组异构处理器上的计算,提供了硬件性能因子加权的域分解。如果在步骤102期间确定用户要求的代的数量N无法从任何一个单独的子集群获得,则发生硬件性能因子加权的域分解。作为一个示例,如果仅存在M(其中M<N)个Gen X处理器可用,则如图7中所示般地执行根据本发明的硬件加权的域分解。
在步骤106期间检查异构处理器集用场以确定(N-M)个快速处理器等效资源是否在下一最佳处理器集用场中可得。在该确认中,一个快速处理器等效节点=h(x)/h(x-1)*Gen(X-1)个处理器,其中h(x)是Gen X处理器的硬件性能因子h,而h(x-1)是Gen(X-1)处理器的硬件性能因子。也使用针对集用场P中的各代处理器的硬件性能因子h并从相关节点性能数据库D获得。如果在步骤106期间,未表示可得到足够的快速处理器等效资源,则处理返回到步骤106并等待在108处表示的特定等待间隔,之后返回步骤104,其中做出如上文针对步骤104描述的另一问询。
如果在步骤106期间确定可得到足够的Gen(X-1)处理器,则如步骤110所示执行来自整个集用场P的异构集用场中的每个处理器的节点的分配。在该分配中,考虑在以上方程式(3)或方程式(4)中针对异构处理器集用场给出的仿真时间的估计,如上所述。而且,考虑包括网格网络带宽的影响的各种参数。也使用针对相同储层仿真器从基准研究不同类别的储层仿真模型获得的测量R(N)的预先创建的数据库B来完成该评估。优选的是,只将相同或相似类别的储层仿真模型的相关数据作为请求的用户任务用于评估。
在步骤112期间(在图8中扩展),利用来自最近代(Gen X)的最大数量的处理器以及来自较慢代的一些处理器来规划最优的二维分解,从而补偿剩余的要求的处理的需求。因为这个原因,二维分解可通过使用其他较慢的处理器来使用少于所需的M个Gen X处理器,即使它们是可用的。如所述的那样,根据方程式(5),本发明使用硬件性能因子加权的域分解来获得恒定或接近恒定的均一化负荷因子L。
在域的行向或列向中使用相同代的处理器(参见图4A),而在域的另一方向中使用不同代的处理器。
在步骤112期间,对比最佳一维分解来对找出的最佳二维分解进行评估(即,使用组合了Gen X和其他代的M个处理器与(N-M)个Gen X处理器的计算能力等价)。该优化工作流确定处理器的最佳组合以及分解策略。
在步骤114期间,已在步骤110期间分配的节点被分派给从步骤112获得的分解的块,使得在如上所述的不同代处理器子集群上的工作负荷量不同,但是具有根据方程式(5)的恒定或大致均一化的负荷因子L。
在将节点在步骤114中分派给分解的块之后,随后脚本将最佳分解结果写入特定文件以由仿真器使用。
在步骤116期间,处理任务被发送给仿真器并且执行仿真。适宜的仿真器的一个示例是沙特阿拉伯石油公司的Parallel Oil Water Enhanced Reservoir Simulator(POWERS)。
图8的方法说明了直到实现最佳组合为止的域分解例程迭代。
对于根据本发明的域分解而言,如果可能的话,优选的是在不使得处理器间通信方法复杂的情况下使用二维域分解。否则,可使用一维域分解。批处理脚本基于图7的方法选择集用场。仿真器基于通过批处理脚本选定的处理器集用场来分解域。
本发明使用新的域分解策略统一了用于仿真器的异构计算资源,具有良好的负荷平衡,并减少了多个子集群上的处理器碎片化。将诸如沙特阿拉伯石油公司的ParallelOil Water Enhanced Reservoir Simulator(POWERS)之类的仿真器调整为与本发明的域分解方法互动并最优化地在现有设施上运行,从而最小化其运行时间。
在网格上的可用计算能力的统一概括可通过方程式(6)来测量:
方程式(6)
其中Pi是表示为单个统一CPU代i的网格上的可用能力;Pij是从i代到j代的CPU转换因子(其等同于前面描述的硬件性能因子(h));ni是(来自批处理调度器的)可用的i代处理器的数量。
例如,对于三个类型(代)处理器的可用集用场而言,其中存在Gen3(h=4)的413个节点、Gen2(h=3)的413个节点以及Gen1(h=1)的274个节点,对于这三个节点代而言方程式(4)可写成如下:
T≌R(N1)/d x 1/4x413+R(N2)/d x 1/3x413+R(N-N1-N2)/d x 1/1x274
≌R(N1)/d x 1/4x791
对于一维分解:
T≌(R(N1))/4x791
而对于二维分解:
T≌R(N1)/d2 x 1/4x791
并且d2应当大于1。
通常,二维分解相比一维分解而言是优选的,除非由于分解的不均匀性导致通信方法变得复杂。图6是该分解的示意描述。如图所示,在如图所示地分派给三代处理器G1、G2和G3的子域之间存在大量通信开销,如箭头60所示,表示双向数据通信和随之的通信开销。
从前述内容可以理解的是,本发明的方法通过适当选择不同类型的处理器的组合优化了运行时间。
如图9中所示,根据本发明的数据处理系统D包括计算机150,该计算机150具有处理器152和存储器154,存储器154耦接到处理器152以在其中存储操作指令、控制信息和数据库记录。如果期望,计算机150可以是便携式数字处理器,诸如具有膝上型电脑、笔记本电脑或其他适当的编程或可编程的数字数据处理设备(诸如桌面型计算机)之类形式的计算机。还应当理解的是计算机150可以是具有节点的多核处理器(诸如来自英特尔公司或超威半导体公司(AMD)的那些处理器)、HPC Linux集群计算机或适当处理能力的任何传统类型的大型计算机(诸如可以从纽约阿蒙克的国际商用机器公司(IBM)或其他来源获得的那些大型计算机)。
计算机150具有用户界面156和输出数据或图形化用户显示器158,显示器158用于显示根据本发明的岩相和储层属性的输出数据或记录。输出显示器158包括诸如打印机和输出显示屏幕之类的组件,其能够以图表、数据表、图形化图像、数据绘图等形式将打印的输出信息或可视化显示提供为输出记录或图像。
计算机150的用户界面156还包括适当的用户输入装置或输入/输出控制单元160以提供用户控制或访问信息和数据库记录以及操作计算机150的途径。数据处理系统D还包括存储在计算机存储器中的数据库162,该计算机存储器可以是内部存储器154,或者可以是外部存储器、网络存储器或非网络存储器,如在相关数据库服务器168中的166处表示的那样。
数据处理系统D包括存储在计算机150的存储器154中的程序代码170。根据本发明,程序代码170以非瞬时计算机可操作指令的形式存在,使得数据处理器152以上述方式执行本发明的计算机实现方法。
应当注意到的是,程序代码170可以具有微代码、程序、例程或符号化计算机可操作语言的形式,其提供了用于控制数据系统D的功能并引导数据处理系统D的操作的有序操作的特定集合。程序代码170的指令可以以非瞬时形式存储在计算机150的存储器154中,或者存储在计算机磁盘、磁带、传统硬盘驱动器、电子只读存储器、光存储装置上,或者存储在其他存储有非瞬时计算机可使用介质适当数据存储装置上。程序代码170还可以以非瞬时形式包含在诸如服务器168的数据存储装置上,作为计算机可读介质。
下面示例示出了通过根据本发明的任务调度器分配处理器和将储层映射(域分解)到网格架构。在该示例中,用户请求利用791个处理器的任务。在不同处理器上的硬件性能因子和针对该任务的期望运行时间在表格1中示出。可以看出,对于不同代处理器,在791个处理器上针对该任务的运行时间从1小时到4小时变化。批量调度器脚本的任务是从可用处理器集用场中选择处理器的组合,期望的是给出与791个Gen3(即,最快速的)处理器相似的运行时间。
作为针对储层仿真任务的提交脚本的一部分而执行的本发明的方法根据在本示例中的请求选择791个Gen3处理器(如果可以获得)。如果791个Gen3处理器不可获得,则提交脚本可另外选择处理器的组合,诸如274个Gen3处理器、413个Gen2处理器和413个Gen1处理器,这应当具有与791个Gen3处理器类似的性能(即,运行时间1小时)。来自可用集用场的处理器的组合不需要是独一无二的,在提交脚本中的方法的任务是搜索和找出一种组合即可(如果可以获得)。如果因为缺少可用处理器而导致没有找出这样的处理器的组合,则脚本提供期望给出任务的最快运行时间的最佳处理器组合。
表格1:不同代硬件的仿真
仿真器基于硬件性能因子来分解域,即,Gen3处理器将被分配比Gen1处理器多3倍的任务,Gen2处理器将被分派比Gen1处理器多2倍的任务,从而对于所有处理器而言获得接近恒定的均一化负荷因子。
下面的表格2示出了来自试验性运行的结果。
情况 快速集群 慢速集群 时间(分钟)
A 5 0 2.7
B 0 5 4.4
C 4 1 3.3
D 2 3 4
如果混合运行集群并且根据本发明执行分解技术(即,在网格上运行),则处理时间是平均4分钟(情况D),与之相比,当在原来较慢集群上运行时,处理时间是平均4.4分钟(情况B)。以这种方式,获得优点并且碎片化节点的利用率提高(3个节点来自慢速,2个节点来自快速),同时提供了与单独使用更高速度的子集群可以相比的性能。
下面的表格3示出了另一组测试并进一步解释:
如表格3中所示,该示例示出了根据本发明的分解技术有效并且示出了其如何在网格上工作来在节点之间分配处理。该储层仿真已在由2x512(一个慢速,一个快速)个节点集群组成的数据处理系统上运行。处理器速度的不同之处在于,如果慢速集群性能是X,则快速集群性能是4X。被仿真的储层是来自谢拜油田的2.2MM单元模型。可看出,在只有慢速集群(情况A)上的最差性能是22分3秒。在快速集群(情况B)上的最佳性能是12分49秒。当在慢速和快速集群(情况C)上平等分割所运行的处理时,得到比来自只有慢速集群(情况A)更差的性能,这是因为网络延迟效应以及任务由混合体中最慢的处理器或CPU执行。
如上所述地基于它们各自的硬件性能因子将本发明的方法应用到对域的分解中,并且在每个集群上使用4核以用于处理(情况D),可以看到性能的改善。接着,如情况E至情况H所示,对相同的域分解增加慢速核的数量,执行时间减少,直到获得等效于在只有最快速集群上运行整个仿真的性能。
本发明针对在HPC网格上的储层仿真,提供了物理扩展高性能计算(HPC)处理系统的能力。本发明还提供了域分解技术以实现更高的负荷平衡和计算效率。将HPC设施扩展至网格计算伴随着对可用混合资源的适应性检测。储层仿真分解技术实际上适应地了解了下层硬件和不同代处理器,并基于这些资源来调整负荷的分布,以最小化仿真器的处理运行时间。因此,本发明提供了在异构高性能计算网格上有效运行更大型储层仿真模型的能力。相反,其中在仿真中使用域分解的传统方法只适于集群中的同构处理器集。
因此,可以看出本发明针对储层仿真、特别是在被称作巨型储层中的大规模储层仿真提供了可伸缩和可扩展的HPC环境。本发明利用较旧代子集群和较新代子集群的混合克服了HPC计算中遇到的处理缓慢问题,从而大幅节约了成本,并且将处理速度升级到最新代处理器的处理速度。本发明使得能够提升具有较慢处理器的较旧代计算机的利用率。
开发了仿真模型来预测油田生产性能。这些仿真模型被用于开发针对油田的战略监控计划并且评估搜索效率和最优化开采。用户可同时使用旧的和新的计算资源,而不会减慢仿真处理。这提供了对目前已知的之前还不能够得到的极其大型的模型的运行。另一主要优点是确保储层的长期完整性并且提供了储层的动态评定,从而最大化极限开采。
本发明已经充分地进行了描述,因此本领域普通技术人员可重复并获得在这里提到的本发明中的结果。尽管如此,任何本领域的技术人员都可以根据本发明的主题进行未在这里描述的修改,将这些修改应用到确定的计算机系统,或者应用到本方法的实施方式中,要求在权利要求中的请求主题;这些结构应当被本发明的范围所覆盖。
应当注意和理解的是,可以在不脱离由所附权利要求限定的本发明的精神和范围的情况下对本发明的上述细节做出改进和修改。

Claims (18)

1.一种数据处理系统中的储层仿真的计算机实现方法,所述数据处理系统包括多个处理器集群的处理器节点的统一集用场,至少一个处理器集群由与另一处理器集群中的处理器节点具有不同处理速度的处理器节点组成,所述计算机实现方法包括以下步骤:
(a)响应于用户对储层仿真的请求,分配来自各处理器集群的可用处理器节点;
(b)执行将储层数据分解为块的硬件性能因子加权的域分解以用于储层仿真;
(c)将分配的处理器节点分派给被分解的储层数据块的每个;以及
(d)在分配的处理器节点中执行所请求的储层仿真。
2.根据权利要求1所述的计算机实现方法,还包括步骤:
基于要被请求的储层仿真的类型来形成计算负荷测量值。
3.根据权利要求1所述的计算机实现方法,还包括步骤:
形成对不同处理器子集群中的处理器节点的性能的测量值。
4.根据权利要求1所述的计算机实现方法,其中所述执行域分解的步骤包括步骤:
形成用于执行储层仿真的对可用处理器节点的假设分组;
形成针对所述处理器节点的假设分组的处理时间的测量值;以及
根据所形成的处理时间的测量值来确定是否存在对处理器节点的最优分组。
5.根据权利要求4所述的计算机实现方法,其中所述确定步骤指示不存在最优分组,且所述计算机实现方法进一步包括步骤:
回到所述形成假设分组的步骤以形成对可用处理器节点的另一假设分组。
6.根据权利要求5所述的计算机实现方法,其中在分派被分配的处理器节点之前,比较步骤指示存在最优分组。
7.一种数据处理系统,包括多个处理器集群的处理器节点的统一集用场,至少一个处理器集群由与另一处理器集群中的处理器节点具有不同处理速度的处理器节点组成,所述数据处理系统中的所述处理器节点执行步骤:
(a)响应于用户对储层仿真的请求,分配来自各处理器集群的可用处理器节点;
(b)执行将储层数据分解为块的硬件性能因子加权的域分解以用于储层仿真;
(c)将分配的处理器节点分派给被分解的储层数据块的每个;以及
(d)在分配的处理器节点中执行所请求的储层仿真。
8.根据权利要求7所述的数据处理系统方法,其中所述处理器进一步执行步骤:
基于要被请求的储层仿真的类型来形成计算负荷测量值。
9.根据权利要求7所述的数据处理系统方法,其中所述处理器进一步执行步骤:
形成对不同处理器子集群中的处理器节点的性能的测量值。
10.根据权利要求7所述的数据处理系统方法,其中所述处理器在执行域分解时还执行步骤:
形成用于执行储层仿真的对可用处理器节点的假设分组;
形成针对所述处理器节点的假设分组的处理时间的测量值;以及
根据所形成的处理时间的测量值来确定是否存在对处理器节点的最优分组。
11.根据权利要求10所述的数据处理系统方法,其中所述处理器在执行确定时指示不存在最优分组,并且所述处理器进一步执行步骤:
回到所述形成假设分组的步骤以形成对可用处理器节点的另一假设分组。
12.根据权利要求10所述的数据处理系统方法,其中所述处理器在执行确定时指示存在最优分组,并且所述处理器在分派被分配的处理器节点之前执行比较步骤。
13.一种数据存储装置,其在计算机可读介质中存储有用于数据处理系统中的储层仿真的非瞬时计算机可操作指令,所述数据处理系统包括多个处理器集群的处理器节点的统一集用场,至少一个处理器集群由与另一处理器集群中的处理器节点具有不同处理速度的处理器节点组成,存储在所述数据存储装置中的所述指令使得所述数据处理系统执行下列步骤:
(a)响应于用户对储层仿真的请求,分配来自各处理器集群的可用处理器节点;
(b)执行将储层数据分解为块的硬件性能因子加权的域分解以用于储层仿真;
(c)将分配的处理器节点分派给被分解的储层数据块的每个;以及
(d)在分配的处理器节点中执行所请求的储层仿真。
14.根据权利要求13所述的数据存储装置,其中所述指令包括使得所述数据处理系统执行步骤:
基于要被请求的储层仿真的类型来形成计算负荷测量值。
15.根据权利要求13所述的数据存储装置,其中所述指令包括使得所述数据处理系统执行步骤:
形成对不同处理器子集群中的处理器节点的性能的测量值。
16.根据权利要求13所述的数据存储装置,其中所述指令包括使得所述数据处理系统执行步骤:
形成用于执行储层仿真的对可用处理器节点的假设分组;
形成针对所述处理器节点的假设分组的处理时间的测量值;以及
根据所形成的处理时间的测量值来确定是否存在处理器节点的最优分组。
17.根据权利要求16所述的数据存储装置,其中确定步骤指示不存在最优分组,并且所述指令包括使得所述数据处理系统执行如下步骤的指令:
回到所述形成假设分组的步骤以形成对可用处理器节点的另一假设分组。
18.根据权利要求16所述的数据存储装置,其中确定步骤指示存在最优分组,所述指令使得所述数据处理系统在执行分派被分配的处理器节点的步骤之前执行比较步骤。
CN201380028645.XA 2012-05-31 2013-05-07 利用可伸缩网格计算的储层仿真 Active CN104380260B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261653501P 2012-05-31 2012-05-31
US61/653,501 2012-05-31
PCT/US2013/039826 WO2013180907A1 (en) 2012-05-31 2013-05-07 Reservoir simulation with scalable grid computing

Publications (2)

Publication Number Publication Date
CN104380260A CN104380260A (zh) 2015-02-25
CN104380260B true CN104380260B (zh) 2018-12-14

Family

ID=48468800

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380028645.XA Active CN104380260B (zh) 2012-05-31 2013-05-07 利用可伸缩网格计算的储层仿真

Country Status (5)

Country Link
US (1) US9489475B2 (zh)
EP (1) EP2856316B1 (zh)
CN (1) CN104380260B (zh)
CA (1) CA2870472C (zh)
WO (1) WO2013180907A1 (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150263900A1 (en) * 2014-03-11 2015-09-17 Schlumberger Technology Corporation High performance distributed computing environment particularly suited for reservoir modeling and simulation
EP3086229A1 (en) 2015-04-20 2016-10-26 Repsol, S.A. Managing hydrocarbon energy production while proactively maintaining a balanced workload
CA2994529A1 (en) * 2015-09-04 2017-03-09 Halliburton Energy Services, Inc. Time-to-finish simulation forecaster
WO2017193117A1 (en) * 2016-05-06 2017-11-09 Schlumberger Technology Corporation Seismic processing task predictive scheduler
WO2018005214A1 (en) * 2016-06-28 2018-01-04 Schlumberger Technology Corporation Parallel multiscale reservoir simulation
WO2018136852A1 (en) * 2017-01-21 2018-07-26 Schlumberger Technology Corporation Scalable computation and communication methods for domain decomposition of large-scale numerical simulations
GB2584559B (en) * 2018-04-18 2022-10-19 Landmark Graphics Corp Methods and systems to determine and optimize reservoir simulator performance in a cloud computing environment
CN108596504B (zh) * 2018-05-03 2019-11-08 中国水利水电科学研究院 考虑计算资源经济可行的水库群调度并行动态规划方法
US11816043B2 (en) 2018-06-25 2023-11-14 Alibaba Group Holding Limited System and method for managing resources of a storage device and quantifying the cost of I/O requests
US20200059539A1 (en) * 2018-08-20 2020-02-20 Landmark Graphics Corporation Cloud-native reservoir simulation
US11093266B2 (en) 2018-10-15 2021-08-17 Microsoft Technology Licensing, Llc Using a generative model to facilitate simulation of potential policies for an infrastructure as a service system
US11061735B2 (en) * 2019-01-02 2021-07-13 Alibaba Group Holding Limited System and method for offloading computation to storage nodes in distributed system
US20220221615A1 (en) * 2019-08-23 2022-07-14 Landmark Graphics Corporation Reservoir turning bands simulation with distributed computing
US11734115B2 (en) 2020-12-28 2023-08-22 Alibaba Group Holding Limited Method and system for facilitating write latency reduction in a queue depth of one scenario
US11726699B2 (en) 2021-03-30 2023-08-15 Alibaba Singapore Holding Private Limited Method and system for facilitating multi-stream sequential read performance improvement with reduced read amplification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1533754A1 (en) * 2003-10-03 2005-05-25 J.O.A. Beheer B.V. Method and apparatus for modelling multidimensional, heterogeneous structures by computer
CN1672132A (zh) * 2002-07-25 2005-09-21 皇家飞利浦电子股份有限公司 源到源的分区编译
CN102135949A (zh) * 2011-03-01 2011-07-27 浪潮(北京)电子信息产业有限公司 基于图形处理器的计算网络系统、方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7526418B2 (en) 2004-08-12 2009-04-28 Saudi Arabian Oil Company Highly-parallel, implicit compositional reservoir simulator for multi-million-cell models
US7925900B2 (en) * 2007-01-26 2011-04-12 Microsoft Corporation I/O co-processor coupled hybrid computing device
KR101703328B1 (ko) * 2010-11-23 2017-02-07 삼성전자 주식회사 이종 멀티 프로세서 환경에서의 데이터 처리 최적화 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1672132A (zh) * 2002-07-25 2005-09-21 皇家飞利浦电子股份有限公司 源到源的分区编译
EP1533754A1 (en) * 2003-10-03 2005-05-25 J.O.A. Beheer B.V. Method and apparatus for modelling multidimensional, heterogeneous structures by computer
CN102135949A (zh) * 2011-03-01 2011-07-27 浪潮(北京)电子信息产业有限公司 基于图形处理器的计算网络系统、方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Parallel load-balanced simulation for short-range interaction particle methods with hierarchical particle grouping based on orthogonal recursive bisection;Florian Fleissner 等;《INTERNATIONAL JOURNAL FOR NUMERICAL METHODS IN ENGINEERING》;20080423;第74卷;第534-537、539-547页第4.1、5.1、5.3、6.1-6.4、7.1-7.5节,图1-13 *

Also Published As

Publication number Publication date
US20130325419A1 (en) 2013-12-05
CA2870472A1 (en) 2013-12-05
CN104380260A (zh) 2015-02-25
WO2013180907A1 (en) 2013-12-05
CA2870472C (en) 2017-08-15
EP2856316B1 (en) 2019-03-20
US9489475B2 (en) 2016-11-08
EP2856316A1 (en) 2015-04-08

Similar Documents

Publication Publication Date Title
CN104380260B (zh) 利用可伸缩网格计算的储层仿真
Juve et al. Characterizing and profiling scientific workflows
CA2801382C (en) Method and system for parallel simulation models
CN103814358B (zh) 服务器群内的虚拟机放置
CN106649085A (zh) 一种基于云计算的软件测试系统
Shabestari et al. A taxonomy of software-based and hardware-based approaches for energy efficiency management in the Hadoop
CN104239661B (zh) 一种大规模油藏数值模拟计算的方法
Subramanian et al. Rapid processing of synthetic seismograms using windows azure cloud
Yuan et al. FUNWAVE‐GPU: Multiple‐GPU acceleration of a Boussinesq‐type wave model
AU2015363241A1 (en) Scalable scheduling of parallel iterative seismic jobs
CN104182343B (zh) 操作系统的性能测试方法及装置
Rafique et al. A capabilities-aware framework for using computational accelerators in data-intensive computing
Park et al. Parameterized benchmarking of parallel discrete event simulation systems: Communication, computation, and memory
Taheri et al. Hopfield neural network for simultaneous job scheduling and data replication in grids
Tobin et al. Accelerating seismic simulations using the intel xeon phi knights landing processor
Cintra et al. A hybrid parallel DEM approach with workload balancing based on HSFC
Luitjens The scalability of parallel adaptive mesh refinement within Uintah
Wang et al. GPARS: Graph predictive algorithm for efficient resource scheduling in heterogeneous GPU clusters
Uddin et al. Analytical-based high-level simulation of the microthreaded many-core architectures
Prakash et al. An efficient workflow scheduling approach in cloud computing
Muhammed et al. HPC-smart infrastructures: A review and outlook on performance analysis methods and tools
Pilla Topology-aware load balancing for performance portability over parallel high performance systems
Bystrov et al. Cost‐and performance‐aware resource selection for parallel software on heterogeneous cloud
Aubanel Resource-aware load balancing of parallel applications
Jiang et al. Energy optimization oriented three-way clustering algorithm for cloud tasks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant