CN110929456A - 移动粒子法并行计算等效粒子负载均衡加速方法 - Google Patents

移动粒子法并行计算等效粒子负载均衡加速方法 Download PDF

Info

Publication number
CN110929456A
CN110929456A CN201911107763.5A CN201911107763A CN110929456A CN 110929456 A CN110929456 A CN 110929456A CN 201911107763 A CN201911107763 A CN 201911107763A CN 110929456 A CN110929456 A CN 110929456A
Authority
CN
China
Prior art keywords
particle
calculation
particles
node
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911107763.5A
Other languages
English (en)
Other versions
CN110929456B (zh
Inventor
陈荣华
蔡庆航
董春辉
李勇霖
郭凯伦
田文喜
秋穗正
苏光辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN201911107763.5A priority Critical patent/CN110929456B/zh
Publication of CN110929456A publication Critical patent/CN110929456A/zh
Application granted granted Critical
Publication of CN110929456B publication Critical patent/CN110929456B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

移动粒子法并行计算等效粒子负载均衡加速方法,1、根据计算域内粒子的初始分布,生成对应的背景网格;2、根据节点数进行计算区域划分,根据粒子数和计算域决定划分方式;3、采用等效粒子均衡分布方法进行粒子计算域的划分;4、采用内存共享式OpenMP并行模型实现计算节点内的并行计算;5、采用消息传递式MPI并行模型实现节点间的并行计算;6、采用等效粒子均衡分布实现各节点的负载均衡,大大提高并行效率;本发明可以大规模并行加速基于拉格朗日方法的移动粒子法,根据不同类型粒子的计算量差异展开更均衡的划分方式,提高计算节点的使用效率,并行方式适用于目前主流的集群式计算硬件。

Description

移动粒子法并行计算等效粒子负载均衡加速方法
技术领域
本发明涉及计算流体动力学技术领域,具体涉及一种移动粒子法并行计算等效粒子负载均衡加速方法。
背景技术
计算流体动力学(CFD)是通过计算机求解流动方程来模拟复杂的流动运动,随着高性能计算机技术的高速发展及相关CFD算法的提出和改进,计算流体力学已经发展成一门独立的学科,对解决工程问题及复杂流动现象有重大现实意义。
传统的基于网格的数值方法是应用最广泛的CFD方法,开发有众多成熟的商用软件。但传统的网格法在计算工程中的形变、相变、流固耦合、流体自由界面运动等问题上存在困难和不足。由于无网格法在以上计算领域中存在独特的优势,引发众多学者的关注,并在近年得以快速发展。基于拉格朗日描述法以配点式粒子离散格式的粒子类计算方法是目前应用最广泛、发展最迅速的无网格方法之一,主要包括光滑粒子流体动力学方法和移动粒子半隐式方法。粒子类方法相较于网格法具备前期建模简便、精确捕捉运动界面运动、精确捕捉相变过程、适合模拟流固耦合等优势。
粒子类计算方法的计算精度受粒子大小影响且收敛条件较为严苛,通常在工程尺度计算中具有很大的计算量,因此发展移动粒子法并行计算等效粒子负载均衡加速方法具有重大的现实意义。目前常用的高性能计算系统为集群通讯系统,它通过一组松散集成的计算机软件和/或硬件连接起来高度紧密地写作完成计算工作。集群系统中的单个计算机通常称为节点,节点间通常通过局域网连接。集群系统是目前最主流的高速计算机系统之一,广泛应用于各大高校、企业和科研院所的高性能计算工作中。针对集群系统的特点,充分利用硬件特点,采用OpenMP/MPI混合并行方法,发展能够实现最高效率的移动粒子法并行计算等效粒子负载均衡加速方法。
发明内容
基于拉格朗日描述法以配点式粒子离散格式来描述计算对象的粒子类计算方法与传统的网格法有着明显的差异,网格法中适用的并行加速方法无法很好地适用于移动粒子法中,因此本发明针对移动粒子法固有的特点提出一种移动粒子法并行计算等效粒子负载均衡加速方法,该方法能够很好地适配集群地硬件特点,通过计算量的负载均衡,达到最高的并行效率。
为了达到上述目的,本发明采用了以下技术方案:
一种移动粒子法并行计算等效粒子负载均衡加速方法,具体步骤如下:
步骤1:根据计算域内粒子的初始分布,生成对应的背景网格,背景网格指的是在粒子计算区域上建立规则的背景网格,每个背景网格内包含一定数量的粒子,每个背景网格内的网格点不参与实际的计算,只应用于粒子检索和区域划分,背景网格的形状为正方形,背景网格的边长等于粒子作用半径,统计每个背景网格内粒子的数量;
步骤2:采用等效粒子均衡分布方法进行粒子计算域的划分,等效粒子均衡分布方法为根据不同类型粒子计算量的不同,将所有类型的粒子等效为某一计算量确定的参照粒子,再根据等效后的参照粒子数量进行区域划分,保证每个区域内参照粒子数量基本相同,从而实现负载均衡的效果;根据计算对象确定划分维度和划分顺序,划分维度根据计算对象确定或根据计算节点数确定,当节点数小于或等于5时采用一维划分方式,当节点数大于5并小于等于20时采用二维划分方式,当节点数大于20时采用三维划分方式;划分方向的选择根据X、Y、Z方向上计算域的长度决定,优先选择计算域最长的方向进行划分,确定划分方向后按照计算域越长越晚划分的原则决定划分顺序,每个方向的划分次数根据每个方向上计算域的长度分配,计算域越长划分次数越多,最终的划分区域数和计算节点数相同,划分对象为背景网格;划分原则为每个划分区域内等效的参照粒子数目相同;
步骤3:每个划分区域内所有粒子的计算由各自节点负责,节点内采用内存共享式OpenMP并行模型展开并行计算,以保证各个线程的负载均衡,实现节点内最高的并行效率;
步骤4:节点间采用消息传递式MPI并行模型展开并行计算,每个划分区域边界处的背景网格称为边界区,边界区内的粒子计算需要其邻近划分区域边界处背景网格内的粒子信息,采用MPI并行模型的通讯函数,实现边界处粒子信息的传递;每个节点提供存储区域,用以接收邻近划分区域发送的粒子信息,该存储区域称为缓冲区;若在一次中计算使用了两个节点,分别为节点1和节点2,斜线阴影部分为缓冲区,深色部分为节点计算域,边界区在计算域内,节点1边界区内的粒子信息传递到节点2内的缓存区,节点2边界区内的粒子信息传递到节点1内的缓存区,信息传递前在当前节点的缓存区Buff-local进行信息打包处理,减少通讯函数的调用次数,从而减少计算资源的耗费;节点1边界区内的粒子计算需要节点1缓存区内的粒子信息,节点2边界区内的粒子计算需要节点2缓存区内的粒子信息,从而满足节点1和节点2边界处粒子的计算条件,以此通讯方式类推,实现各个方向上边界粒子信息的通讯;
步骤5:由于移动粒子法的粒子位置时时发生变化,这个时刻下属于本划分区域的粒子在下一时刻可能属于另一个划分区域,因此必须将该跨越粒子(前后时刻粒子所属划分区域发生改变的粒子)的所有信息由原来的划分区域传递到之后的划分区域所负责的节点;对于跨越粒子的通讯,首先每个节点统计下个时刻将离开其划分区域的所有粒子,将所有粒子ID、粒子下一时刻的进入划分区域对应的节点号信息传递到共享区,共享区内的信息所有节点都能够获得,由此每个节点获得所有粒子的通讯信息,随后,每个节点通过消息传递式MPI并行模型的通讯模型完成发送和接受对应粒子信息;
步骤6:由于移动粒子法的粒子位置时时发生变化,随着计算时间的进行,初始划分区域内的等效参照粒子数量可能发生变化,可能导致每个节点的计算负载量分配不均衡,因此在一定计算时间后,重新进行区域划分,即重复步骤2中粒子计算域划分的操作,从而实现负载均衡,以保证计算节点间的并行效率。
所述的移动粒子法指的是基于拉格朗日描述法以配点式粒子离散格式来描述计算对象的粒子类计算方法。
所述的粒子类计算方法包括移动粒子半隐式算法、光滑粒子流体动力学方法和粒子网格混合方法。
和现有技术相比较,本发明具备如下优点:
基于拉格朗日描述法以配点式粒子离散格式的粒子类计算方法是目前应用最广泛、发展最迅速的无网格方法之一,粒子类计算方法的计算精度受粒子大小影响且收敛条件较为严苛,通常在工程尺度计算中具有很大的计算量,因此本发明移动粒子法并行计算等效粒子负载均衡加速方法具有重大的现实意义;本发明针对目前主流的集群式计算机硬件框架,采用OpenMP/MPI并行模型,能够更高效率地利用硬件设备,提高计算效率;本发明针对粒子法的计算特点,针对不同的节点数和计算域设置了对应最优的计算域划分方式,方式判定方法合理有效,适用于粒子法中涉及到的所有情况;本发明针对不同种类粒子计算量的差异,采用等效粒子负载均衡方法实现最终负载均衡的区域划分,最大限度上提高了每个线程的并行效率;本发明充分利用MPI并行模型的优势,通过MPI并行模型中的打包功能,规避了大量MPI并行模型的通讯函数的调用,大大减少MPI并行模型使用过程中带来的计算耗费。
附图说明
图1是先Y后X的二维划分方式示意图。
图2是边界粒子信息通讯示意图。
图3是跨越粒子信息通讯示意图。
具体实施方式
本发明移动粒子法并行计算等效粒子负载均衡加速方法,具体步骤如下:
步骤1:根据计算域内粒子的初始分布,生成对应的背景网格,背景网格指的是在粒子计算区域上建立规则的背景网格,每个背景网格内包含一定数量的粒子,每个背景网格内的网格点不参与实际的计算,只应用于粒子检索和区域划分,背景网格的形状为正方形,背景网格的边长等于粒子作用半径,统计每个背景网格内粒子的数量;
步骤2:采用等效粒子均衡分布方法进行粒子计算域的划分,等效粒子均衡分布方法为根据不同类型粒子计算量的不同,将所有类型的粒子等效为某一计算量确定的参照粒子,再根据等效后的参照粒子数量进行区域划分,保证每个区域内参照粒子数量基本相同,从而实现负载均衡的效果;根据计算对象确定划分维度和划分顺序,划分维度可自行根据计算对象确定或根据计算节点数确定,当节点数小于或等于5时采用一维划分方式,当节点数大于5并小于等于20时采用二维划分方式,当节点数大于20时采用三维划分方式;划分方向的选择根据X、Y、Z方向上计算域的长度决定,优先选择计算域最长的方向进行划分,例如在三维计算中,节点数为10(采用二维划分方式),如果X、Y方向上的计算域均长于Z方向,则选择X和Y方向进行二维划分;确定划分方向后按照计算域越长越晚划分的原则决定划分顺序,每个方向的划分次数根据每个方向上计算域的长度分配,计算域越长划分次数越多,最终的划分区域数和计算节点数相同,例如在三维计算中,假设对X和Y两个方向进行划分,如果Y方向计算域更长,则根据计算域越长越晚划分的原则,先对X方向进行划分m次,存在m-1个划分区域,再在m-1个划分区域内分别对Y方向进行n次划分,m和n由各方向的计算域长度决定;划分对象为背景网格;划分原则为每个划分区域内等效的参照粒子数目相同;如图1为例举的二维的划分方式示意图,划分区域数为9,划分方式为先Y方向后X方向,9个划分区域内的等效参照粒子数相同,首先通过计算域的尺寸判断X方向更长,因此采用先Y后X划分方式,然后先对Y方向进行划分,即在Y方向上划分3个区域:Y1、Y2和Y3,三个区域内的参照粒子数相同,最后对三个区域分别在X方向上进行划分,即Y3区域划分出0、1、2区域,Y2区域划分出3、4、5区域,Y1区域划分出6、7、8区域,9个区域内的参照粒子数相同;
步骤3:每个划分区域内所有粒子的计算由各自节点负责,节点内采用内存共享式OpenMP并行模型展开并行计算,以保证各个线程的负载均衡,实现节点内最高的并行效率;以已开发的MPS并行计算程序为例,通过OpenMP并行模型中的omp_set_num_threads()语句设定节点内并行的线程数,在粒子的for循环前面采用#pragma omp parallel for语句实现粒子的并行度,OpenMP并行模型会自动通过负载分配线程,保证每个线程的负载均衡;
步骤4:节点间采用消息传递式MPI并行模型展开并行计算,每个划分区域边界处的背景网格称为边界区,边界区内的粒子计算需要其邻近划分区域边界处背景网格内的粒子信息,采用MPI并行模型的通讯函数,实现边界处粒子信息的传递;每个节点提供存储区域,用以接收邻近划分区域发送的粒子信息,该存储区域称为缓冲区;边界粒子信息通讯如图2所示,在一次中计算使用了两个节点,分别为节点1和节点2,斜线阴影部分为缓冲区,深色部分为节点计算域,边界区在计算域内,节点1边界区内的粒子信息传递到节点2内的缓存区,节点2边界区内的粒子信息传递到节点1内的缓存区,信息传递前在当前节点的缓存区Buff-local进行信息打包处理,减少通讯函数的调用次数,从而减少计算资源的耗费;节点1边界区内的粒子计算需要节点1缓存区内的粒子信息,节点2边界区内的粒子计算需要节点2缓存区内的粒子信息,从而满足节点1和节点2边界处粒子的计算条件,以此通讯方式类推,实现各个方向上边界粒子信息的通讯;最常用的MPI并行模型的通讯函数有MPI_Send发送信息,MPI_Recv接收信息,MPI_Bcast广播,MPI_Allreduce归约,除了通讯函数,MPI模型中还包含其他功能函数,有MPI_Pack打包功能,用以消息发送前在本地节点进行信息打包操作,再通过一次通讯函数完成数个节点的通讯;具体使用方式为每个节点通过MPI_Pack函数打包边界区所有粒子的ID、位置、速度、温度等关键信息,使用MPI_Send向对应邻近计算域的负责节点发送打包好的信息,采用MPI_Recv接收邻近计算域的负责节点发送的粒子信息并存储在本地缓存区,在部分需要调用两个属于不同节点的粒子信息的地方可采用MPI_Allreduce归约实现而不必进行粒子信息的通讯;
步骤5:由于移动粒子法的粒子位置时时发生变化,这个时刻下属于本划分区域的粒子在下一时刻可能属于另一个划分区域,因此必须将该跨越粒子(前后时刻粒子所属划分区域发生改变的粒子)的所有信息由原来的划分区域传递到之后的划分区域所负责的节点;跨越粒子的通讯如图3所示,每个节点统计下个时刻将离开其划分区域的所有粒子,将所有粒子ID、粒子下一时刻的进入划分区域对应的节点号信息传递到共享区Buffer0,由此每个节点获得共享区内所有粒子的通讯信息,每个节点即可完成发送和接受对应粒子信息,如图3中节点0将A粒子信息传递给节点1,节点1将B粒子信息传递给节点2,节点1将D粒子信息传递给节点0,节点2将C粒子信息传递给节点1;
步骤6:由于移动粒子法的粒子位置时时发生变化,随着计算时间的进行,初始划分区域内的等效参照粒子数量可能发生变化,可能导致每个节点的计算负载量分配不均衡,因此在一定计算时间后,重新进行区域划分,即重复步骤2中粒子计算域划分的操作,从而实现负载均衡,以保证计算节点间的并行效率。

Claims (3)

1.一种移动粒子法并行计算等效粒子负载均衡加速方法,其特征在于:具体步骤如下:
步骤1:根据计算域内粒子的初始分布,生成对应的背景网格,背景网格指的是在粒子计算区域上建立规则的背景网格,每个背景网格内包含一定数量的粒子,每个背景网格内的网格点不参与实际的计算,只应用于粒子检索和区域划分,背景网格的形状为正方形,背景网格的边长等于粒子作用半径,统计每个背景网格内粒子的数量;
步骤2:采用等效粒子均衡分布方法进行粒子计算域的划分,等效粒子均衡分布方法为根据不同类型粒子计算量的不同,将所有类型的粒子等效为某一计算量确定的参照粒子,再根据等效后的参照粒子数量进行区域划分,保证每个区域内参照粒子数量基本相同,从而实现负载均衡的效果;根据计算对象确定划分维度和划分顺序,划分维度根据计算对象确定或根据计算节点数确定,当节点数小于或等于5时采用一维划分方式,当节点数大于5并小于等于20时采用二维划分方式,当节点数大于20时采用三维划分方式;划分方向的选择根据X、Y、Z方向上计算域的长度决定,优先选择计算域最长的方向进行划分,确定划分方向后按照计算域越长越晚划分的原则决定划分顺序,每个方向的划分次数根据每个方向上计算域的长度分配,计算域越长划分次数越多,最终的划分区域数和计算节点数相同,划分对象为背景网格;划分原则为每个划分区域内等效的参照粒子数目相同;
步骤3:每个划分区域内所有粒子的计算由各自节点负责,节点内采用内存共享式OpenMP并行模型展开并行计算,以保证各个线程的负载均衡,实现节点内最高的并行效率;
步骤4:节点间采用消息传递式MPI并行模型展开并行计算,每个划分区域边界处的背景网格称为边界区,边界区内的粒子计算需要其邻近划分区域边界处背景网格内的粒子信息,采用MPI并行模型的通讯函数,实现边界处粒子信息的传递;每个节点提供存储区域,用以接收邻近划分区域发送的粒子信息,该存储区域称为缓冲区;若在一次中计算使用了两个节点,分别为节点1和节点2,节点1内边界区内的粒子信息传递到节点2内的缓存区,节点2内边界区内的粒子信息传递到节点1内的缓存区,信息传递前在当前节点的缓存区内进行信息打包处理,减少通讯函数的调用次数,从而减少计算资源的耗费,节点1边界区内的粒子计算需要缓存区内的从节点2发送来的粒子信息,节点2边界区内的粒子计算需要缓存区内从节点1发送来的粒子信息,从而满足节点1和节点2边界区内粒子的计算条件,以此通讯方式类推,实现各个方向上边界粒子信息的通讯;
步骤5:由于移动粒子法的粒子位置时时发生变化,这个时刻下属于本划分区域的粒子在下一时刻可能属于另一个划分区域,因此必须将该跨越粒子即前后时刻粒子所属划分区域发生改变的粒子的所有信息由原来的划分区域传递到之后的划分区域所负责的节点;对于跨越粒子的通讯,首先每个节点统计下个时刻将离开其划分区域的所有粒子,将所有粒子ID、粒子下一时刻的进入划分区域对应的节点号信息传递到共享区,共享区内的信息所有节点都能够获得,由此每个节点获得所有粒子的通讯信息,随后,每个节点通过消息传递式MPI并行模型的通讯模型完成发送和接受对应粒子信息;
步骤6:由于移动粒子法的粒子位置时时发生变化,随着计算时间的进行,初始划分区域内的等效参照粒子数量可能发生变化,可能导致每个节点的计算负载量分配不均衡,因此在一定计算时间后,重新进行区域划分,即重复步骤2中粒子计算域划分的操作,从而实现负载均衡,以保证计算节点间的并行效率。
2.根据权利要求1所述一种移动粒子法并行计算等效粒子负载均衡加速方法,其特征在于:所述的移动粒子法指的是基于拉格朗日描述法以配点式粒子离散格式来描述计算对象的粒子类计算方法。
3.根据权利要求4所述一种移动粒子法并行计算等效粒子负载均衡加速方法,其特征在于:所述的粒子类计算方法包括移动粒子半隐式算法、光滑粒子流体动力学方法和粒子网格混合方法。
CN201911107763.5A 2019-11-13 2019-11-13 移动粒子法并行计算等效粒子负载均衡加速方法 Active CN110929456B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911107763.5A CN110929456B (zh) 2019-11-13 2019-11-13 移动粒子法并行计算等效粒子负载均衡加速方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911107763.5A CN110929456B (zh) 2019-11-13 2019-11-13 移动粒子法并行计算等效粒子负载均衡加速方法

Publications (2)

Publication Number Publication Date
CN110929456A true CN110929456A (zh) 2020-03-27
CN110929456B CN110929456B (zh) 2021-07-06

Family

ID=69852840

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911107763.5A Active CN110929456B (zh) 2019-11-13 2019-11-13 移动粒子法并行计算等效粒子负载均衡加速方法

Country Status (1)

Country Link
CN (1) CN110929456B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753451A (zh) * 2020-06-23 2020-10-09 中国水利水电科学研究院 适用于水利相关数值模拟的非结构化网格剖分及合并方法
CN113791912A (zh) * 2021-11-11 2021-12-14 中国空气动力研究与发展中心计算空气动力研究所 基于mpi+x的dsmc并行计算方法、设备及介质
CN114004176A (zh) * 2021-10-29 2022-02-01 中船重工奥蓝托无锡软件技术有限公司 一种均匀结构化网格并行分区方法
CN114357907A (zh) * 2022-01-07 2022-04-15 中国空气动力研究与发展中心计算空气动力研究所 一种适用于拉格朗日型粒子类数值模拟的并行方法
CN115016947A (zh) * 2022-08-05 2022-09-06 中国空气动力研究与发展中心计算空气动力研究所 负载分配方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104360896A (zh) * 2014-12-04 2015-02-18 北京航空航天大学 一种基于gpu集群的并行流体仿真加速方法
US20150187116A1 (en) * 2013-12-31 2015-07-02 Disney Enterprises, Inc. Material point method for simulation of granular materials
CN106528989A (zh) * 2016-11-03 2017-03-22 英特工程仿真技术(大连)有限公司 一种分布式并行sph仿真方法
CN110275732A (zh) * 2019-05-28 2019-09-24 上海交通大学 在ARMv8处理器上质点网格法的并行实现方法
CN110321641A (zh) * 2019-07-08 2019-10-11 西安交通大学 基于粒子法的熔融物与混凝土相互作用分析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150187116A1 (en) * 2013-12-31 2015-07-02 Disney Enterprises, Inc. Material point method for simulation of granular materials
CN104360896A (zh) * 2014-12-04 2015-02-18 北京航空航天大学 一种基于gpu集群的并行流体仿真加速方法
CN106528989A (zh) * 2016-11-03 2017-03-22 英特工程仿真技术(大连)有限公司 一种分布式并行sph仿真方法
CN110275732A (zh) * 2019-05-28 2019-09-24 上海交通大学 在ARMv8处理器上质点网格法的并行实现方法
CN110321641A (zh) * 2019-07-08 2019-10-11 西安交通大学 基于粒子法的熔融物与混凝土相互作用分析方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
XIN LI等: "《Numerical simulation on single Taylor bubble rising in LBE using moving particle method》", 《NUCLEAR ENGINEERING AND DESIGN》 *
方冰等: "《一种基于网格划分的自适应粒子群优化算法》", 《计算机应用研究》 *
李勇霖等: "《对流传热问题的粒子-网格混合方法数值模拟》", 《原子能科学技术》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753451A (zh) * 2020-06-23 2020-10-09 中国水利水电科学研究院 适用于水利相关数值模拟的非结构化网格剖分及合并方法
CN114004176A (zh) * 2021-10-29 2022-02-01 中船重工奥蓝托无锡软件技术有限公司 一种均匀结构化网格并行分区方法
CN114004176B (zh) * 2021-10-29 2023-08-25 中船奥蓝托无锡软件技术有限公司 一种均匀结构化网格并行分区方法
CN113791912A (zh) * 2021-11-11 2021-12-14 中国空气动力研究与发展中心计算空气动力研究所 基于mpi+x的dsmc并行计算方法、设备及介质
CN114357907A (zh) * 2022-01-07 2022-04-15 中国空气动力研究与发展中心计算空气动力研究所 一种适用于拉格朗日型粒子类数值模拟的并行方法
CN115016947A (zh) * 2022-08-05 2022-09-06 中国空气动力研究与发展中心计算空气动力研究所 负载分配方法、装置、设备及介质

Also Published As

Publication number Publication date
CN110929456B (zh) 2021-07-06

Similar Documents

Publication Publication Date Title
CN110929456B (zh) 移动粒子法并行计算等效粒子负载均衡加速方法
CN103324780B (zh) 颗粒流动仿真系统和方法
Lint et al. Communication issues in the design and analysis of parallel algorithms
CN104714850B (zh) 一种基于opencl的异构共同计算均衡方法
CN111630505B (zh) 深度学习加速器系统及其方法
CN104820657A (zh) 一种基于嵌入式异构多核处理器上的核间通信方法及并行编程模型
CN113689556A (zh) 一种块自适应型笛卡尔网格快速图映射方法及系统
Du et al. Model parallelism optimization for distributed inference via decoupled CNN structure
JP2014206979A (ja) プロセス並列処理装置及び方法
CN111368484B (zh) 基于神威架构的宇宙n体数值模拟优化方法及系统
CN104375882A (zh) 匹配于高性能计算机结构的多级嵌套数据驱动计算方法
Ahn et al. Soft memory box: A virtual shared memory framework for fast deep neural network training in distributed high performance computing
Wu et al. Using hybrid MPI and OpenMP programming to optimize communications in parallel loop self-scheduling schemes for multicore PC clusters
CN109491934A (zh) 一种集成计算功能的存储管理系统控制方法
Ghanbari et al. Time cheating in divisible load scheduling: sensitivity analysis, results and open problems
Chen et al. Optimizing network transfers for data analytic jobs across geo-distributed datacenters
Kobus et al. Gossip: Efficient communication primitives for multi-gpu systems
Chu et al. Dynamic kernel fusion for bulk non-contiguous data transfer on GPU clusters
CN110990059B (zh) 一种用于倾斜数据的流式计算引擎运行方法及系统
CN116455612B (zh) 一种隐私计算中间数据流零拷贝装置及方法
Sarkar et al. A Scalable Artificial Intelligence Data Pipeline for Accelerating Time to Insight
CN113703955A (zh) 计算系统中数据同步的方法及计算节点
CN115686784A (zh) 一种基于多机多进程的地理网格金字塔并行构建方法
JP2003099412A (ja) 超並列コンピュータ
CN113556242B (zh) 一种基于多处理节点来进行节点间通信的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant