CN110851987B - 基于加速比预测计算时长的方法、装置和存储介质 - Google Patents
基于加速比预测计算时长的方法、装置和存储介质 Download PDFInfo
- Publication number
- CN110851987B CN110851987B CN201911116018.7A CN201911116018A CN110851987B CN 110851987 B CN110851987 B CN 110851987B CN 201911116018 A CN201911116018 A CN 201911116018A CN 110851987 B CN110851987 B CN 110851987B
- Authority
- CN
- China
- Prior art keywords
- calculation
- simulation model
- calculated
- preset
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种基于加速比预测计算时长的方法、装置和存储介质,所述方法通过获取待计算仿真模型,并判断待计算仿真模型与预设仿真模型是否匹配;若否,则获取预设仿真模型的参考模型参数,以及使用计算节点对预设仿真模型进行计算得到的仿真计算时长;获取待计算仿真模型的模型参数,并将模型参数与参考模型参数进行匹配,以根据匹配结果和仿真计算时长,得到待计算仿真模型所对应的计算时长。本发明通过上述方式实现对于待计算仿真模型计算时长的预测,解决了现有的高性能计算集群无法提前预估计算时长的技术问题,满足项目工程对时间节点的要求。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于加速比预测计算时长的方法、装置和存储介质。
背景技术
HPC(High Performance Computing,高性能计算)集群,是一种能够处理大数据文件并具备高速运算功能的计算机集群,它利用并行批处理数据技术构建高性能计算系统,通过提高运算速度,达到每秒万亿次级的计算速度,实现对于海量数据的处理,故而被广泛应用在汽车系统研发、车辆故障检测、图像处理等领域。
目前,在利用高性能计算集群执行计算任务时,只能在计算完成之后获得计算总时长,无法有效地提前预估出该计算任务所需要的计算时长。但对于某些项目工程来说,如若无法提前预估计算时长,就不能及时对资源进行分配,容易导致工程的延期。
发明内容
本发明的主要目的在于提供了一种基于加速比预测计算时长的方法、装置和存储介质,旨在解决现有的高性能计算集群无法提前预估计算任务的计算时长,容易导致工程延期的技术问题。
为实现上述目的,本发明提供了一种基于加速比预测计算时长的方法,包括以下步骤:
获取待计算仿真模型,并判断所述待计算仿真模型与预设仿真模型是否匹配;
若否,则获取预设仿真模型的参考模型参数,以及使用计算节点对预设仿真模型进行计算得到的仿真计算时长;
获取所述待计算仿真模型的模型参数,并将所述模型参数与所述参考模型参数进行匹配,以根据匹配结果和所述仿真计算时长,得到所述待计算仿真模型所对应的计算时长。
可选地,所述判断所述待计算仿真模型与预设仿真模型是否匹配的步骤包括:
获取所述待计算仿真模型的标识信息,并根据所述标识信息确定所述待计算仿真模型的类型;
若所述待计算仿真模型的类型与预设仿真模型的类型相同,则确定所述待计算仿真模型与预设仿真模型匹配;
若所述待计算仿真模型的类型与预设仿真模型的类型不同,则确定所述待计算仿真模型与预设仿真模型不匹配。
可选地,所述获取所述待计算仿真模型的模型参数的步骤包括:
获取待计算仿真模型的模型网格数量、网格大小、接触类型、模型大小以及计算步长,并将所述模型网格数量、所述网格大小、所述接触类型、所述模型大小以及所述计算步长作为所述模型参数。
可选地,所述判断所述待计算仿真模型与预设仿真模型是否匹配的步骤之后,包括:
若是,则调用对预设基准算例进行计算得到的加速比,并将m个计算节点的加速比代入预设公式中,得到使用m个计算节点计算所述待计算仿真模型所对应的计算时长。
可选地,所述将m个计算节点的加速比数值代入预设公式中,得到使用m个计算节点计算所述待计算仿真模型所对应的计算时长的步骤包括:
其中,Sn为调用的加速比中计算节点为n个时的加速比,Tn为从预设加速比表中查询到的Sn对应的计算预设仿真模型的计算时长,Sm为m个计算节点的加速比,Tm为m个计算节点计算所述待计算仿真模型的计算时长,m与n均为大于0的整数。
可选地,在所有步骤之前,包括:
使用不同数量的计算节点对预设基准算例进行计算,以得到与计算节点数量对应的加速比;
使用不同数量的计算节点对预设仿真模型进行计算,以得到与计算节点数量对应的计算时长;
将与计算节点数量对应的加速比和对应的计算时长关联后保存至预设加速比表中。
可选地,所述使用不同数量的计算节点对预设基准算例进行计算,以得到与计算节点数量对应的加速比的步骤包括:
使用一个计算节点对预设基准算例进行计算,以得到计算时长T1;
在得到计算时长T1后,每次增加一个计算节点以返回重新对预设基准算例进行计算,得到增加计算节点后所对应的计算时长Tv,直至增加计算节点后的节点数量等于计算节点总数且完成该次对预设基准算例的计算后,输出不同计算节点数量对应的加速比。
可选地,所述输出不同计算节点数量对应的加速比的步骤包括:
将计算时长T1分别除以不同计算节点数量对应的计算时长Tv,得到与不同计算节点数量对应的加速比。
此外,为实现上述目的,本发明还提供一种预测计算时长装置,所述预测计算时长装置包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于加速比预测计算时长的程序,所述基于加速比预测计算时长的程序被所述处理器执行时实现如上所述基于加速比预测计算时长的方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有基于加速比预测计算时长的程序,所述基于加速比预测计算时长的程序被处理器执行时实现如上所述基于加速比预测计算时长的方法的步骤。
本发明公开的一种基于加速比预测计算时长的方法、预测计算时长装置和存储介质,通过获取待计算仿真模型,并判断待计算仿真模型与预设仿真模型是否匹配;若否,则获取预设仿真模型的参考模型参数,以及使用计算节点对预设仿真模型进行计算得到的仿真计算时长;获取待计算仿真模型的模型参数,并将模型参数与参考模型参数进行匹配,以根据匹配结果和仿真计算时长,得到待计算仿真模型所对应的计算时长。
本发明通过上述方式实现对于待计算仿真模型计算时长的预测,解决了现有的高性能计算集群无法提前预估计算时长的技术问题,满足项目工程对时间节点的要求。同时在此基础上,待计算仿真模型所对应的计算时长存在多个的情况,且待计算仿真模型所对应的计算时长是与计算节点的数量对应的,因此也便于技术人员选择最合适数量的计算节点对待计算仿真模型进行计算,从而提高计算节点的利用率。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的装置结构示意图;
图2为本发明基于加速比预测计算时长的方法一实施例的流程示意图;
图3为本发明基于加速比预测计算时长的方法另一实施例的流程示意图;
图4为本发明所述使用不同数量的计算节点对预设基准算例进行计算,以得到与计算节点数量对应的加速比的步骤细化流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的终端结构示意图。
本发明终端是一种预测计算时长装置,该装置可以是一种手机、电脑、移动电脑等具有存储功能的终端设备。
如图1所示,该终端可以包括:处理器1001,例如CPU,通信总线1002,用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选的用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
可选地,终端还可以包括摄像头、Wi-Fi模块等等,在此不再赘述。
本领域技术人员可以理解,图1中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
在图1所示的终端中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要包括输入单元比如键盘,键盘包括无线键盘和有线键盘,用于连接客户端,与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的基于加速比预测计算时长的程序,并执行以下操作:
获取待计算仿真模型,并判断所述待计算仿真模型与预设仿真模型是否匹配;
若否,则获取预设仿真模型的参考模型参数,以及使用计算节点对预设仿真模型进行计算得到的仿真计算时长;
获取所述待计算仿真模型的模型参数,并将所述模型参数与所述参考模型参数进行匹配,以根据匹配结果和所述仿真计算时长,得到所述待计算仿真模型所对应的计算时长。
进一步地,处理器1001可以调用存储器1005中存储的基于加速比预测计算时长的程序,还执行以下操作:
获取所述待计算仿真模型的标识信息,并根据所述标识信息确定所述待计算仿真模型的类型;
若所述待计算仿真模型的类型与预设仿真模型的类型相同,则确定所述待计算仿真模型与预设仿真模型匹配;
若所述待计算仿真模型的类型与预设仿真模型的类型不同,则确定所述待计算仿真模型与预设仿真模型不匹配。
进一步地,处理器1001可以调用存储器1005中存储的基于加速比预测计算时长的程序,还执行以下操作:
获取待计算仿真模型的模型网格数量、网格大小、接触类型、模型大小以及计算步长,并将所述模型网格数量、所述网格大小、所述模型大小所述接触类型以及所述计算步长作为所述模型参数。
进一步地,处理器1001可以调用存储器1005中存储的基于加速比预测计算时长的程序,还执行以下操作:
若是,则调用对预设基准算例进行计算得到的加速比,并将m个计算节点的加速比代入预设公式中,得到使用m个计算节点计算所述待计算仿真模型所对应的计算时长。
进一步地,处理器1001可以调用存储器1005中存储的基于加速比预测计算时长的程序,还执行以下操作:
使用不同数量的计算节点对预设基准算例进行计算,以得到与计算节点数量对应的加速比使用不同数量的计算节点对预设仿真模型进行计算,以得到与计算节点数量对应的计算时长;
将与计算节点数量对应的加速比和对应的计算时长关联后保存至预设加速比表中。
进一步地,处理器1001可以调用存储器1005中存储的基于加速比预测计算时长的程序,还执行以下操作:
使用一个计算节点对预设基准算例进行计算,以得到计算时长T1;
在得到计算时长T1后,每次增加一个计算节点以返回重新对预设基准算例进行计算,得到增加计算节点后所对应的计算时长Tv,直至增加计算节点后的节点数量等于计算节点总数且完成该次对预设基准算例的计算后,输出不同计算节点数量对应的加速比。
进一步地,处理器1001可以调用存储器1005中存储的基于加速比预测计算时长的程序,还执行以下操作:
将计算时长T1分别除以不同计算节点数量对应的计算时长Tv,得到与不同计算节点数量对应的加速比。
本装置的具体实施例与下述基于加速比预测计算时长的方法各实施例基本相同,在此不作赘述。
请参阅图2,图2为本发明基于加速比预测计算时长的方法一实施例的流程示意图,本实施例提供的基于加速比预测计算时长的方法包括如下步骤:
步骤S10,获取待计算仿真模型,并判断所述待计算仿真模型与预设仿真模型是否匹配;
本实施例中,先获取待计算仿真模型,应当理解的是,所述待计算仿真模型可以是用户输入的,也可以是从其他工程程序中自动获取的待计算仿真模型。同时,所述待计算仿真模型可以为CAE模型、CFD模型等工程模型,本实施例在此并不做具体限制,出于详尽阐述实施例的需要,以该待计算仿真模型为CAE模型为例,对技术方案进行阐述。本实施例中还预设有仿真模型,应当理解的是,可以预设多个仿真模型,也可以预设多个类别的仿真模型,例如可以同时预设CAE模型与CFD模型。通过这种方式,扩大待计算仿真模型的适配范围。在获取到待计算仿真模型后,判断待计算仿真模型与预设仿真模型是否匹配。
步骤S20,若否,则获取预设仿真模型的参考模型参数,以及使用计算节点对预设仿真模型进行计算得到的仿真计算时长;
如果待计算仿真模型与预设仿真模型不匹配,则获取参考模型参数以及仿真计算时长。本实施例中,在预设仿真模型构建的同时,获取预设的仿真模型的参数,并将预设的仿真模型的参数作为参考模型参数;同时,也会使用计算节点对预设仿真模型进行计算,并将对应的计算时长作为仿真计算时长。容易理解的是,上述仿真计算时长可以是使用一个计算节点对预设仿真模型进行计算得到的,也可以是使用多个计算节点对预设仿真模型进行计算得到的;作为一种优选方案,将使用一个计算节点对预设仿真模型进行计算的计算时长作为仿真计算时长。
步骤S30,获取所述待计算仿真模型的模型参数,并将所述模型参数与所述参考模型参数进行匹配,以根据匹配结果和所述仿真计算时长,得到所述待计算仿真模型所对应的计算时长。
获取待计算仿真模型的模型参数,并将所述模型参数与所述参考模型参数进行匹配,得到对应的匹配结果。容易理解的是,模型参数与参考模型参数的匹配过程,实质是将影响模型计算时长的因素进行权重计算,因此所述所述匹配结果能反映待计算仿真模型与预设仿真模型的不同。根据匹配结果和仿真计算时长,得到待计算仿真模型所对应的计算时长,需要理解的是,所述待计算仿真模型所对应的计算时长可以是使用一个计算节点计算待计算仿真模型所需要的计算时长,也可以是使用多个计算节点计算待计算仿真模型所需要的计算时长。
本实施例先判断待计算仿真模型与预设仿真模型是否匹配,如若待计算仿真模型与预设仿真模型不匹配,则获取待计算仿真模型的模型参数与预设仿真模型参考模型参数,进一步的对模型参数与参考模型参数进行匹配,根据匹配结果和仿真计算时长得到待计算仿真模型所对应的计算时长。通过上述方式实现对于待计算仿真模型计算时长的预测,解决了现有的高性能计算集群无法提前预估计算时长的技术问题,满足项目工程对时间节点的要求。同时在此基础上,待计算仿真模型所对应的计算时长存在多个的情况,且待计算仿真模型所对应的计算时长是与计算节点的数量对应的,因此也便于技术人员选择最合适数量的计算节点对待计算仿真模型进行计算,从而提高计算节点的利用率。
进一步地,所述判断所述待计算仿真模型与预设仿真模型是否匹配的步骤包括:
步骤S11,获取所述待计算仿真模型的标识信息,并根据所述标识信息确定所述待计算仿真模型的类型;
步骤S12,若所述待计算仿真模型的类型与预设仿真模型的类型相同,则确定所述待计算仿真模型与预设仿真模型匹配;
步骤S13,若所述待计算仿真模型的类型与预设仿真模型的类型不同,则确定所述待计算仿真模型与预设仿真模型不匹配。
本实施例中,待计算仿真模型与预设仿真模型的匹配过程包括:先获取待计算仿真模型的标识信息,所述标识信息可以是从待计算仿真模型中文件标识符提取的,也可以是从待计算仿真模型的特征文件中提取的,本实施例在此不做具体限定。根据标识信息确定待计算仿真模型的类型,同时根据预设仿真模型的标识信息确定预设仿真模型的类型。判断待计算仿真模型的类型与预设仿真模型的类型是否相同,若相同,则确定所述待计算仿真模型与预设仿真模型匹配;若不同,则确定所述待计算仿真模型与预设仿真模型不匹配。
本实施例通过获取待计算仿真模型的标识信息,根据所述标识信息确定待计算仿真模型的类别,以此精准的判断待计算仿真模型与预设仿真模型是否匹配,保证待计算仿真模型与预设仿真模型匹配结果的准确性。
进一步地,所述获取所述待计算仿真模型的模型参数的步骤包括:
步骤S31,获取待计算仿真模型的模型网格数量、网格大小、模型大小接触类型以及计算步长,并将所述模型网格数量、所述网格大小、所述接触类型、所述模型大小以及所述计算步长作为所述模型参数。
本实施例中,将待计算仿真模型的模型网格数量、网格大小、接触类型、模型大小以及计算步长作为模型参数;同样的,将预设仿真模型的模型网格数量、网格大小、接触类型、模型大小以及计算步长作为参考模型参数。应当理解的是,上述模型参数还可以包括模型优化估值等其他参数值。
进一步地,请参阅图3,图3为本发明基于加速比预测计算时长的方法另一实施例的流程示意图,上述步骤S10判断所述待计算仿真模型与预设仿真模型是否匹配之后,包括:
步骤S40,若是,则调用对预设基准算例进行计算得到的加速比,并将m个计算节点的加速比代入预设公式中,得到使用m个计算节点计算所述待计算仿真模型所对应的计算时长。
如果待计算仿真模型与预设仿真模型不匹配,则获取对预设基准算例进行计算得到的加速比。本实施例中,预先使用不同数量的计算节点对设置的基准算例进行计算,并得到了对应的加速比。本实施例中,还预先设置有计算公式,将m个计算节点的加速比代入预设公式中,以得到使用m个计算节点计算所述待计算仿真模型所对应的计算时长。例如,当待计算仿真模型与预设仿真模型不匹配时,如若想要预测一个计算节点计算待计算仿真模型所需的计算时长,则将当计算节点数量为1时,对应的加速比代入预设公式中计算,得到对应的计算时长;如若想要预测3个计算节点计算待计算仿真模型所需的计算时长,则将当计算节点数量为3时,对应的加速比代入预设公式中计算,得到对应的计算时长。
本实施例中,预先得到计算节点数量对应的加速比的数值,当待计算仿真模型与预设仿真模型不匹配时,根据对应的加速比数值和预设公式得到与计算节点数量对应的计算时长,从而实现对于待计算仿真模型计算时长的预测,解决了现有的高性能计算集群无法提前预估计算时长的技术问题,满足项目工程对时间节点的要求。
进一步地,所述预设公式为:
其中,Sn为调用的加速比中计算节点为n个时的加速比,Tn为从预设加速比表中查询到的Sn对应的计算预设仿真模型的计算时长,Sm为m个计算节点的加速比,Tm为m个计算节点计算所述待计算仿真模型的计算时长,m与n均为大于0的整数。
通过将m个计算节点的加速比代入上述预设公式,可以得到m个计算节点计算所述待计算仿真模型的计算时长。以下举例具体阐述上述公式的应用。当想要得到5个计算节点计算待计算仿真模型的计算时长时,将m设置为5,上述公式中的n可以为任一数量的计算节点,例如取n为3,则上述公式中的S3为使用3个计算节点计算预设基准算例的加速比,上述公式中的T3为使用3个计算节点计算预设仿真模型的计算时长,上述公式中的S5为使用5个计算节点计算预设基准算例的加速比。通过将与计算节点数量对应的加速比数值代入预设公式,得到对应的计算待计算仿真模型的计算时长,从而实现对于待计算仿真模型计算时长的预测。
进一步地,在所有步骤之前,包括:
步骤S50,使用不同数量的计算节点对预设基准算例进行计算,并得到与计算节点数量对应的加速比;
步骤S60,使用不同数量的计算节点对预设仿真模型进行计算,以得到与计算节点数量对应的计算时长;
步骤S70,将与计算节点数量对应的加速比和对应的计算时长关联后保存至预设加速比表中。
本实施例中,预设设置有基准算例,预先使用不同数量的计算节点对预设基准算例进行计算,并得到与计算节点数量对应的加速比;预先使用不同数量的计算节点对预设仿真模型进行计算,并得到与计算节点数量对应的计算时长,将所述加速比和对应的计算时长关联后保存至预设加速比表中。应当理解的是,本实施例应当考虑所有计算节点数量的情况,得到所有计算节点数量对应的加速比和计算预设仿真模型对应的计算时长。
进一步地,请参阅图4,图4为本发明所述使用不同数量的计算节点对预设基准算例进行计算,以得到与计算节点数量对应的加速比的步骤细化流程示意图,所述使用不同数量的计算节点对预设基准算例进行计算,并得到与计算节点数量对应的加速比的步骤包括:
步骤S51,使用一个计算节点对预设基准算例进行计算,以得到计算时长T1;
步骤S52,在得到计算时长T1后,每次增加一个计算节点以返回重新对预设基准算例进行计算,得到增加计算节点后所对应的计算时长Tv,直至增加计算节点后的节点数量等于计算节点总数且完成该次对预设基准算例的计算后,输出不同计算节点数量对应的加速比。
本实施例中,先使用一个计算节点对预设基准算例进行计算,得到对应的计算时长,并将所述计算时长作为计算时长T1;再使用2个计算节点对预设基准算例进行计算,得到对应的计算时长,并将所述计算时长作为计算时长T2;直至使用所有计算节点对预设基准算例进行计算,假设一共有n个计算节点,则使用n个计算节点对预设基准算例进行计算,得到对应的计算时长,并将所述计算时长作为计算时长Tn。应当理解的是,上述Tv为使用v个计算节点对预设基准算例进行计算得到的计算时长,其中v的取值为2到n。最后输出不同计算节点数量对应的加速比。本实施例通过上述方式,准确的得到与计算节点数量对应的加速比,从而使得后续计算时长的预测结果更为准确。
进一步地,所述输出不同计算节点数量对应的加速比的步骤包括:
步骤S531,将计算时长T1分别除以不同计算节点数量对应的计算时长Tv,得到与不同计算节点数量对应的加速比。
本实施例中,如若想要得到3个计算节点计算预设基准算例的加速比,则获取3个计算节点计算预设基准算例的计算时长T3,并将计算时长T1除以计算时长T3,得到计算节点数量为3时,对应的加速比;如若想要得到5个计算节点计算预设基准算例的加速比,则获取5个计算节点计算预设基准算例的计算时长T5,并将计算时长T1除以计算时长T5,得到计算节点数量为5时,对应的加速比。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有基于加速比预测计算时长的程序,所述基于加速比预测计算时长的程序被处理器执行时实现如上所述基于加速比预测计算时长的方法的操作。
本发明计算机可读存储介质的具体实施例与上述基于加速比预测计算时长的方法各实施例基本相同,在此不作赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (5)
1.一种基于加速比预测计算时长的方法,其特征在于,包括以下步骤:
获取待计算仿真模型,并判断所述待计算仿真模型与预设仿真模型是否匹配;
若否,则获取预设仿真模型的参考模型参数,以及使用计算节点对预设仿真模型进行计算得到的仿真计算时长;
获取所述待计算仿真模型的模型参数,并将所述模型参数与所述参考模型参数进行匹配,以根据匹配结果和所述仿真计算时长,得到所述待计算仿真模型所对应的计算时长;
其中,Sn为调用的加速比中计算节点为n个时的加速比,Tn为从预设加速比表中查询到的Sn对应的计算预设仿真模型的计算时长,Sm为m个计算节点的加速比,Tm为m个计算节点计算所述待计算仿真模型的计算时长,m与n均为大于0的整数;
所述方法还包括:
使用不同数量的计算节点对预设基准算例进行计算,以得到与计算节点数量对应的加速比;
使用不同数量的计算节点对预设仿真模型进行计算,以得到与计算节点数量对应的计算时长;
将与计算节点数量对应的加速比和对应的计算时长关联后保存至预设加速比表中;
所述使用不同数量的计算节点对预设基准算例进行计算,以得到与计算节点数量对应的加速比的步骤包括:
使用一个计算节点对预设基准算例进行计算,以得到计算时长T1;
在得到计算时长T1后,每次增加一个计算节点以返回重新对预设基准算例进行计算,得到增加计算节点后所对应的计算时长Tv,直至增加计算节点后的节点数量等于计算节点总数且完成该次对预设基准算例的计算后,将计算时长T1分别除以不同计算节点数量对应的计算时长Tv,得到与不同计算节点数量对应的加速比。
2.如权利要求1所述的基于加速比预测计算时长的方法,其特征在于,所述判断所述待计算仿真模型与预设仿真模型是否匹配的步骤包括:
获取所述待计算仿真模型的标识信息,并根据所述标识信息确定所述待计算仿真模型的类型;
若所述待计算仿真模型的类型与预设仿真模型的类型相同,则确定所述待计算仿真模型与预设仿真模型匹配;
若所述待计算仿真模型的类型与预设仿真模型的类型不同,则确定所述待计算仿真模型与预设仿真模型不匹配。
3.如权利要求1所述的基于加速比预测计算时长的方法,其特征在于,所述获取所述待计算仿真模型的模型参数的步骤包括:
获取待计算仿真模型的模型网格数量、网格大小、接触类型、模型大小以及计算步长,并将所述模型网格数量、所述网格大小、所述接触类型、所述模型大小以及所述计算步长作为所述模型参数。
4.一种预测计算时长装置,其特征在于,所述预测计算时长装置包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于加速比预测计算时长的程序,所述基于加速比预测计算时长的程序配置为实现如权利要求1至3中任一项所述基于加速比预测计算时长的方法的步骤。
5.一种存储介质,其特征在于,所述存储介质上存储有基于加速比预测计算时长的程序,所述基于加速比预测计算时长的程序被处理器执行时实现如权利要求1至3任一项所述基于加速比预测计算时长的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911116018.7A CN110851987B (zh) | 2019-11-14 | 2019-11-14 | 基于加速比预测计算时长的方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911116018.7A CN110851987B (zh) | 2019-11-14 | 2019-11-14 | 基于加速比预测计算时长的方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110851987A CN110851987A (zh) | 2020-02-28 |
CN110851987B true CN110851987B (zh) | 2022-09-09 |
Family
ID=69600674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911116018.7A Active CN110851987B (zh) | 2019-11-14 | 2019-11-14 | 基于加速比预测计算时长的方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110851987B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112084724B (zh) * | 2020-09-08 | 2021-06-22 | 北京航空航天大学 | 一种cfd局部快速计算方法 |
CN112818606B (zh) * | 2021-02-09 | 2022-03-18 | 国网安徽省电力有限公司培训中心 | 数字仿真系统及方法 |
CN116560968A (zh) * | 2023-07-11 | 2023-08-08 | 北京景行锐创软件有限公司 | 一种基于机器学习的仿真计算时间预测方法、系统及设备 |
CN118095209B (zh) * | 2024-04-12 | 2024-07-02 | 清华大学 | 针对大语言模型的动态猜测解码方法、装置、设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944144A (zh) * | 2010-08-30 | 2011-01-12 | 陈玉君 | 一种基于无网格的布类仿真方法 |
CN103177414A (zh) * | 2013-03-27 | 2013-06-26 | 天津大学 | 一种基于结构的图节点相似度并行计算方法 |
CN103425833A (zh) * | 2013-08-07 | 2013-12-04 | 湖南大学 | 一种基于熵格子波尔兹曼模型的并行流体计算实现方法 |
CN106777667A (zh) * | 2016-12-13 | 2017-05-31 | 合肥工业大学 | 一种基于加快仿真时间推进机制的电力电子系统模型 |
CN107015861A (zh) * | 2016-11-07 | 2017-08-04 | 珠江水利委员会珠江水利科学研究院 | 一种基于Fork/Join框架的梯级水库群优化调度多核并行计算设计方法 |
CN109508479A (zh) * | 2018-10-19 | 2019-03-22 | 天津大学 | 基于fpga的有源配电网实时仿真器参数配置通用化方法 |
CN110333933A (zh) * | 2019-07-01 | 2019-10-15 | 华南理工大学 | 一种hpl计算模型仿真方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9984327B2 (en) * | 2010-06-17 | 2018-05-29 | Palo Alto Research Center Incorporated | System and method for parallel graph searching utilizing parallel edge partitioning |
-
2019
- 2019-11-14 CN CN201911116018.7A patent/CN110851987B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944144A (zh) * | 2010-08-30 | 2011-01-12 | 陈玉君 | 一种基于无网格的布类仿真方法 |
CN103177414A (zh) * | 2013-03-27 | 2013-06-26 | 天津大学 | 一种基于结构的图节点相似度并行计算方法 |
CN103425833A (zh) * | 2013-08-07 | 2013-12-04 | 湖南大学 | 一种基于熵格子波尔兹曼模型的并行流体计算实现方法 |
CN107015861A (zh) * | 2016-11-07 | 2017-08-04 | 珠江水利委员会珠江水利科学研究院 | 一种基于Fork/Join框架的梯级水库群优化调度多核并行计算设计方法 |
CN106777667A (zh) * | 2016-12-13 | 2017-05-31 | 合肥工业大学 | 一种基于加快仿真时间推进机制的电力电子系统模型 |
CN109508479A (zh) * | 2018-10-19 | 2019-03-22 | 天津大学 | 基于fpga的有源配电网实时仿真器参数配置通用化方法 |
CN110333933A (zh) * | 2019-07-01 | 2019-10-15 | 华南理工大学 | 一种hpl计算模型仿真方法 |
Non-Patent Citations (2)
Title |
---|
Parallel computation of a dam-break flow model using OpenMP on a multi-core computer;Shanghong Zhang等;《ELSEVIER》;20140506;126-133 * |
超大规模序列比对计算的并行优化;曹宗雁 等;《计算机应用》;20111231;32-35 * |
Also Published As
Publication number | Publication date |
---|---|
CN110851987A (zh) | 2020-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110851987B (zh) | 基于加速比预测计算时长的方法、装置和存储介质 | |
CN109918205B (zh) | 一种边缘设备调度方法、系统、装置及计算机存储介质 | |
CN110427256B (zh) | 基于优先级的作业调度优化方法、设备、存储介质及装置 | |
CN109672888B (zh) | 图片压缩方法、设备及计算机可读存储介质 | |
CN109800204B (zh) | 数据分配方法及相关产品 | |
CN109324890B (zh) | 资源管理方法、装置及计算机可读存储介质 | |
CN107807841B (zh) | 服务器模拟方法、装置、设备及可读存储介质 | |
CN111125057B (zh) | 一种业务请求的处理方法、装置及计算机系统 | |
CN109933610B (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
CN110852603B (zh) | 高吞吐量的风控数据处理方法、装置、设备及存储介质 | |
US11468125B2 (en) | Resource search method and related product | |
CN110995856B (zh) | 一种服务器扩展的方法、装置、设备及存储介质 | |
CN112596820A (zh) | 一种资源加载方法、装置、设备以及存储介质 | |
CN110019372B (zh) | 数据监控方法、装置、服务器及存储介质 | |
CN110347477B (zh) | 一种云环境下服务自适应部署方法和装置 | |
CN117130979A (zh) | 一种业务资源的迁移方法、装置及电子设备 | |
CN116938739A (zh) | 数据处理方法、装置、设备及存储介质 | |
CN109194703B (zh) | 云平台主机间通信负载的处理方法、电子装置及介质 | |
CN110209466B (zh) | 资源配置方法、资源配置装置及存储介质 | |
CN111858542B (zh) | 数据处理方法、装置、设备及计算机可读存储介质 | |
CN115278786A (zh) | 业务接入方法、装置、电子设备及存储介质 | |
CN114626531A (zh) | 模型推理参数确定方法、装置、电子设备及存储介质 | |
CN113609168A (zh) | 数据导出方法、装置、终端以及可读存储介质 | |
CN113268487A (zh) | 数据统计方法、装置及计算机可读存储介质 | |
CN109815123A (zh) | 接口测试用例脚本分类方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |