CN117690536B - 基于异构并行的材料性能预测方法、装置、设备及介质 - Google Patents
基于异构并行的材料性能预测方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN117690536B CN117690536B CN202410156031.XA CN202410156031A CN117690536B CN 117690536 B CN117690536 B CN 117690536B CN 202410156031 A CN202410156031 A CN 202410156031A CN 117690536 B CN117690536 B CN 117690536B
- Authority
- CN
- China
- Prior art keywords
- computing node
- prediction model
- training
- data set
- training data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000000463 material Substances 0.000 title claims abstract description 163
- 238000000034 method Methods 0.000 title claims abstract description 96
- 238000012549 training Methods 0.000 claims abstract description 187
- 238000004364 calculation method Methods 0.000 claims abstract description 62
- 230000008569 process Effects 0.000 claims abstract description 44
- 239000013077 target material Substances 0.000 claims abstract description 22
- 238000003775 Density Functional Theory Methods 0.000 claims description 40
- 238000004590 computer program Methods 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 abstract description 24
- 230000001133 acceleration Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开涉及一种基于异构并行的材料性能预测方法、装置、设备及介质,包括:通过预先训练好的目标预测模型预测目标材料的目标性能参数;目标预测模型的迭代训练过程是采用预先构建的异构并行架构实现的,异构并行架构包括:CPU计算节点和GPU计算节点;GPU计算节点,用于选取当前训练数据集训练得到当前预测模型,通过当前预测模型从待查询材料中选取满足预设误差条件的多个材料样本;CPU计算节点,用于对材料样本的性能参数进行计算,并将得到的第二性能参数发送给GPU计算节点,以使GPU计算节点基于标注有第二性能参数的材料样本生成新的当前训练数据集。本公开能够将DFT与机器学习相结合,提高材料性能的计算效率和准确性。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种基于异构并行的材料性能预测方法、装置、设备及介质。
背景技术
随着高性能计算技术的进步,材料计算已成为典型新材料研发过程中必不可少的环节。通过高通量的材料计算对候选材料组分进行虚拟筛选,可以大幅减少材料实验表征次数,降低成本、提高研发效率。传统的微观材料计算主要通过求解薛定谔方程来计算目标材料的电子结构,从而得到能带间隙、总能量等目标材料性能。目前,主要存在如下两种方法:以密度泛函理论(Density functional theory,DFT)为代表的微观材料计算方法,以及基于机器学习(Machine Learning,ML)的新型材料性能预测方法。上述传统DFT数值计算方法和新型机器学习算法都各有优缺点,从而,如何将DFT与机器学习相结合,以更快速准确的进行材料计算成为了目前需要解决的问题。
发明内容
为了解决上述技术问题,本公开提供了一种基于异构并行的材料性能预测方法、装置、设备及介质。
根据本公开的一方面,提供了一种基于异构并行的材料性能预测方法,包括:
通过预先训练好的目标预测模型预测目标材料的目标性能参数;其中,所述目标预测模型的迭代训练过程是采用预先构建的异构并行架构实现的,所述异构并行架构包括:CPU计算节点和GPU计算节点;
所述GPU计算节点,用于选取当前训练数据集训练得到当前预测模型,并通过所述当前预测模型从待查询材料中选取满足预设误差条件的多个材料样本;
所述CPU计算节点,用于对所述材料样本的性能参数进行计算,并将得到的第二性能参数发送给所述GPU计算节点,以使所述GPU计算节点基于标注有所述第二性能参数的材料样本生成新的当前训练数据集。
根据本公开的另一方面,还提供了一种基于异构并行的材料性能预测装置,包括:
性能预测模块,用于通过预先训练好的目标预测模型预测目标材料的目标性能参数;其中,所述目标预测模型的迭代训练过程是采用预先构建的异构并行架构实现的,所述异构并行架构包括:CPU计算节点和GPU计算节点;
所述GPU计算节点,用于选取当前训练数据集训练得到当前预测模型,并通过所述当前预测模型从待查询材料中选取满足预设误差条件的多个材料样本;
所述CPU计算节点,用于对所述材料样本的性能参数进行计算,并将得到的第二性能参数发送给所述GPU计算节点,以使所述GPU计算节点基于标注有所述第二性能参数的材料样本生成新的当前训练数据集。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例提供的一种基于异构并行的材料性能预测方法、装置、设备及介质,该方法包括:通过预先训练好的目标预测模型预测目标材料的目标性能参数;其中,目标预测模型的迭代训练过程是采用预先构建的异构并行架构实现的,所述异构并行架构包括:CPU计算节点和GPU计算节点;所述GPU计算节点,用于选取当前训练数据集训练得到当前预测模型,并通过所述当前预测模型从待查询材料中选取满足预设误差条件的多个材料样本;所述CPU计算节点,用于对所述材料样本的性能参数进行计算,并将得到的第二性能参数发送给所述GPU计算节点,以使所述GPU计算节点基于标注有所述第二性能参数的材料样本生成新的当前训练数据集。本公开能够将DFT与机器学习相结合,提高材料性能的计算效率和准确性;以及,将计算量合理分配到GPU计算节点与CPU计算节点上协同计算,能够更好地发挥主流异构超算平台的计算性能,提高异构超算平台上的材料并行计算效率。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例所述基于异构并行的材料性能预测方法流程图;
图2为本公开实施例所述目标预测模型的训练方法流程图;
图3为本公开实施例所述材料性能预测并行加速方法示意图;
图4为本公开实施例所述基于流水线的CPU和GPU协同并行加速方法示意图;
图5为本公开实施例所述基于异构并行的材料性能预测装置结构框图;
图6为本公开实施例所述电子设备结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
在新型材料性能预测方法中,传统DFT数值计算方法已经得到广泛应用,该方法计算精度较高、具有坚实的理论基础,但也存在计算速度慢、无法计算大规模材料体系、特定材料体系近似误差较高等明显缺陷。基于机器学习的新型材料性能预测方法以神经网络模型替代传统的理论模型数值求解过程,在高质量数据充足的情况下可以有效捕获目标材料数据集中的组分、结构、性能等规律,从而实现目标材料性能的精准预测。
机器学习方法通过数据驱动的方式能够克服传统DFT数值方法面临的部分问题,如在计算速度方面,机器学习方法通常能够实现2-3个数量级的性能提升,从而将可计算的材料体系规模大幅提升,其次对于部分理论模型不完善、误差较大的材料性能预测问题,机器学习方法可以通过对数据集的训练来学习目标物理规律,突破精确建模难度大的瓶颈。然而,机器学习方法也存在对高精度数据依赖性强、预测精度不高、缺乏物理可解释性等缺陷。
综上,传统DFT数值计算方法和新型机器学习算法都各有优缺点,而将DFT与机器学习相结合开展融合材料计算,可以扬长避短,实现具备极高预测速度,同时又具有较好的理论基础及物理可解释性,同时降低模型的数据依赖性。因此,如何将DFT与机器学习相结合开展融合材料计算成为了目前需要解决的问题。基于此,本公开实施例提供一种基于异构并行的材料性能预测方法、装置设备及介质,为便于理解,以下对本公开实施例展开描述。
图1为本公开实施例提供的一种基于异构并行的材料性能预测方法的流程图,该方法可以由基于异构并行的材料性能预测装置执行,该装置可以采用软件和/或硬件实现。如图1所示,该基于异构并行的材料性能预测方法可以包括如下步骤:
步骤S102,通过预先训练好的目标预测模型预测目标材料的目标性能参数。
在本实施例中,目标预测模型是预先训练好的基于神经网络的机器学习模型;在用于训练目标预测模型的带标签数据中,包括采用DFT(Density functional theory,密度泛函理论)数值计算方法对材料样本的性能参数进行预测,并将预测到的性能参数标注于材料样本后得到的数据。由于DFT数值计算方法计算精度较高,因而,本实施例采用DFT数值计算方法得到的带标签数据为高精度、高质量的数据,能够满足目标预测模型对高质量训练数据的依赖性,利用这部分带标签数据训练目标预测模型,能够明显提高模型的性能预测准确性。
上述带标签数据为标注有基准性能参数的材料数据;根据大量的带标签数据对待训练的预测模型进行多次训练,最终得到能够直接用于材料参数预测的目标预测模型。
在进行预测时,可以将待预测的目标材料的材料数据输入至预先训练好的目标预测模型;通过目标预测模型有效捕获目标材料的材料数据中的特征规律,该特征规律包括但不限于:组分、结构和性能;进而,根据上述特征规律对目标材料的性能参数进行较为精准的预测,得到目标性能参数。
本实施例考虑到,DFT数值计算方法与机器学习模型、算法及软件的计算特征与工作流明显不同。机器学习模型预测速度快且在以GPU为代表的加速器上具有极高性能,而DFT数值计算方法作为传统的数值解法,大部分软件及模型对通用CPU适配良好,而在GPU上加速性能远低于机器学习模型。同时现代超级计算机系统多采用CPU-GPU等异构并行架构,DFT-ML计算方法针对异构超算平台适配不足,性能有待提高。
基于以上考虑,针对DFT-ML融合材料计算的特点及在超算平台上开展高性能计算面临的问题,本实施例可以提供一种面向异构并行架构的材料性能预测并行加速方法,使得融合材料计算过程中不同类型的算法和模型可以在最佳的硬件设备上运行,并优化其通信与负载均衡等关键指标,实现较高的并行加速效果,支持典型DFT-ML融合材料计算软件的高效实现与大型材料体系的可扩展并行计算。相应地,本实施例中的目标预测模型的迭代训练过程是采用预先构建的异构并行架构实现的,异构并行架构包括:CPU计算节点和GPU计算节点。
其中,GPU计算节点,用于选取当前训练数据集训练得到当前预测模型,并通过当前预测模型从待查询材料中选取满足预设误差条件的多个材料样本。CPU计算节点,用于对材料样本的性能参数进行计算,并将得到的第二性能参数发送给GPU计算节点,以使GPU计算节点基于标注有所述第二性能参数的材料样本生成新的当前训练数据集。
在以上实施例的基础上,参照图2和图3,基于异构并行架构,本实施例中目标预测模型的迭代训练过程可以包括:
步骤S202,在GPU计算节点中,从预设的数据训练集合中选取当前训练数据集Si。
在本实施例中,通过GPU计算节点获取包括带标签数据的训练数据集合,将训练数据集合划分为多个训练数据集,并将多个训练数据集逐一作为当前训练数据集。具体的,可以将训练数据集合S分解为d个部分,每部分为一个训练数据集并表示为Si(i=1~d)。将各个训练数据集逐一作为当前训练数据集Si。
此外,当非首轮(i≥2)进行模型训练时,此时的当前训练数据集Si中加入有上一轮(即第i-1轮)模型训练过程中采用DFT数值计算方法生成的新增数据(Xi-1,Yi-1),其中,Xi-1表示材料样本,Yi-1表示采用DFT数值计算方法对材料样本Xi-1的性能参数进行预测,得到的第二性能参数。
步骤S204,基于当前训练数据集对历史预测模型Mi-1进行训练,得到当前预测模型Mi。其中,历史预测模型Mi-1是上一轮训练过程中得到的预测模型,i表示模型训练的迭代次数。
本实施例在GPU计算节点中,通过历史预测模型Mi-1对当前训练数据集Si中带标签数据进行主动学习,优化更新网络模型参数集,由此得到当前预测模型Mi。由于第i轮训练过程利用的当前训练数据集Si中,加入了上一轮(即第i-1轮)训练过中采用DFT数值计算方法得到的新增数据,因此,相比于上一轮的历史预测模型Mi-1,经过本轮训练后的当前预测模型Mi能够提高性能预测精度。
步骤S206,通过当前预测模型从待查询材料中选取满足预设误差条件的多个材料样本。
在实现过程中,首先,通过当前预测模型对待查询材料的性能参数进行预测,得到第一性能参数和第一性能参数对应的误差估计值。
在本实施例中,基于GPU计算节点,获取待查询数据集,待查询数据集中的数据为不携带标签的待查询材料的数据。从待查询数据集中选取待查询材料,通过当前预测模型对待查询材料的性能参数进行预测,得到第一性能参数,同时通过当前预测模型对第一性能的误差进行评估,得到误差估计值;从而,当前预测模型同时输出待查询材料的第一性能参数和第一性能参数对应的误差估计值。
然后,基于第一性能参数对应的误差估计值从待查询材料中选取满足预设误差条件的多个材料样本。本实施例通过GPU计算节点,基于第一性能参数对应的误差估计值从待查询材料中选取满足预设误差条件的多个材料样本。
步骤S208,在CPU计算节点中,采用DFT数值计算方法对材料样本的性能参数进行计算,得到第二性能参数;其中,预设误差条件包括但不限于:误差估计值大于预设的第一误差值、和/或排列于预设次序之前的多个最大的误差估计值。
对于待查询材料中误差估计值较大的数据,例如,误差估计值大于第一误差值的材料数据、误差估计值最大的前K个材料数据,可以将其作为材料样本,并采用DFT数值计算方法对材料样本的性能参数进行高精度数值的计算,得到第二性能参数。
步骤S210,在GPU计算节点中,基于标注有第二性能参数的材料样本生成新的当前训练数据集Si+1。
在一种实现方式中,可以将标注有第二性能参数的材料样本作为新增数据分别加入至尚未参与训练的训练数据集中。具体如,将本轮(第i轮)训练过程中得到的新增数据(Xi,Yi),分别加入至尚未参与训练的训练数据集Si+1、Si+2、…、Sd中。而后,将加入新增数据后的训练数据集逐一作为新的当前训练数据集,继续下一轮(第i+1轮)的训练过程。
每轮训练过程中产生的新增数据具有较高质量,能够用于补充现有的带标签数据,增加训练数据的丰富性和数据质量,进而能够提升预测模型的预测性能。
步骤S212,重复执行上述训练过程,直至满足预设停止条件时停止,将停止执行训练过程时得到的当前预测模型作为最终的目标预测模型。
其中,本实施例中的停止条件可以包括:数据训练集合中的数据处理完毕、当前预测模型输出的误差估计值低于预设的第二误差值或达到预设的迭代次数。
在一种示例中,重复执行上述步骤S202至S212所示的训练过程,直至数据训练集合中的数据处理完毕,也即完成针对最后一个训练数据集Sd的训练过程时,停止执行训练过程,将此时得到的当前预测模型作为最终的目标预测模型。
本实施例提供的目标预测模型的训练过程,通过多次迭代实现预测结果的优化,使训练后目标预测模型的预测结果的误差估计值低于预期,目标预测模型的预测效果能够满足实际使用。
为更好地理解本公开实施例,在此还可以结合图3和图4,本实施例提供一种面向异构并行架构的DFT-ML融合材料性能预测并行加速计算方法,具体参照如下内容。
(1)配置CPU计算节点和GPU计算节点;具体为,启动计算程序,配置CPU计算环境与GPU计算环境,以构建CPU计算节点和GPU计算节点。
如图3所示,本实施例的关键计算流程包含基于GPU计算节点的DFT计算与基于GPU计算节点模型计算两大部分。其中,基于GPU计算节点,主要可以用于执行上述:步骤S204,基于当前训练数据集对历史预测模型进行训练;步骤S206,通过当前预测模型对待查询材料的性能参数进行预测的步骤;步骤S208,从待查询材料中选取满足预设误差条件的多个材料样本的步骤。基于CPU计算节点,主要用于执行上述步骤S210,采用DFT数值计算方法对材料样本的性能参数进行计算的步骤。
以及,CPU计算节点还用于将标注有第二性能参数的材料样本传输至GPU计算节点;GPU计算节点还可以执行基于标注有第二性能参数的材料样本生成新的当前训练数据集的步骤。
(2)获取包括带标签数据的训练数据集合;将训练数据集合划分为多个训练数据集,并将多个训练数据集逐一作为当前训练数据集。
(3)基于GPU计算节点,基于当前训练数据集对历史预测模型进行训练,得到当前预测模型。对于非首次训练过程中的当前训练数据集,是指加入新增数据之后的训练数据集。
(4)基于GPU计算节点,通过当前预测模型对待查询材料进行预测性能参数和评估误差,得到第一性能参数和第一性能参数对应的误差估计值。
(5)基于GPU计算节点,从待查询材料中选取满足预设误差条件的多个材料样本;基于CPU计算节点,采用DFT数值计算方法对所述材料样本的性能参数进行计算,得到第二性能参数。
(6)将CPU计算节点下的标注有第二性能参数的材料样本传输至GPU计算节点。
(7)在GPU计算节点下,将标注有第二性能参数的材料样本作为新增数据加入参与下一轮训练过程的训练数据集中,将加入新增数据后的训练数据集作为新的当前训练数据集。
(8)重复执行上述训练过程,直至满足以下任一停止条件时停止:数据训练集合中的数据处理完毕、当前预测模型输出的误差估计值低于预设的第二误差值或达到预设的迭代次数;将停止执行训练过程时得到的当前预测模型作为最终的目标预测模型。
根据以上步骤,针对训练数据集Si训练完成后,利用误差估计值选取新的材料样本并传递给CPU计算节点进行DFT计算,与此同时,可以启动GPU对训练数据集Si+1的训练与误差估计,此时CPU与GPU上的计算任务可以同时进行。结合图4所示的基于流水线的CPU和GPU协同并行加速方法示意图,本实施例可以理解为,在第i轮模型训练的过程中,GPU计算节点利用训练数据集Si进行性能参数和误差估计值的预测,与此同时,CPU计算节点针对第i-1轮训练选取出的材料样本进行DFT数值计算方法的计算并得到新增数据(Xi,Yi)。而后,在第i+1轮模型训练的过程中,基于CPU计算节点的新增数据(Xi,Yi)加入至训练数据集Si+1,GPU计算节点利用加入新增数据后的训练数据集Si+1进行性能参数和误差估计值的预测,与此同时,CPU计算节点针对第i轮训练选取出的材料样本进行DFT数值计算方法的计算并得到新增数据(Xi+1,Yi+1)。以此类推,直至完成模型训练。
因此,本实施例通过将带标签数据分解为原始的训练数据集和新增数据,解除了机器学习与DFT数值计算之间的数据依赖关系,于是可以实现基于GPU计算节点下训练数据集的预测,与基于CPU计算节点下DFT数值计算之间的异构协同并行计算,以及,通过流水线并行方式实现CPU和GPU的高效协同计算,提高了材料性能预测速度。
在实际应用中,流水线的深度可以根据CPU和GOU的实际计算性能进行评估,为了实现最佳加速效果,本实施例可参照如下方式将训练数据集合更合理地划分为多个训练数据集:根据CPU计算节点的第一执行时间将训练数据集合划分为多个训练数据集,以使GPU计算节点基于单个训练数据集的第二执行时间与第一执行时间之间的时间差在预设时间范围内。
第一执行时间是指CPU计算节点采用DFT数值计算方法对材料样本的性能参数进行计算这一过程所需的时间,第二执行时间是指GPU计算节点执行如下几个步骤所需的时间:基于当前训练数据集对历史预测模型进行训练并得到当前预测模型的步骤,通过当前预测模型对待查询材料的性能参数进行预测并得到第一性能参数和第一性能参数对应的误差估计值的步骤,从待查询材料中选取满足预设误差条件的多个材料样本的步骤。
本实施例以CPU计算节点的第一执行时间作为划分依据,能够更加合理地划分多个训练数据集,使得GPU计算节点中单个训练数据集Si的预测时间,与CPU计算节点中针对多个材料样本的DFT计算时间相当。
在本实施例中,能够实现性能优化的关键点在于,机器学习模型的训练与预测运行在GPU计算节点上,而DFT计算运行在CPU计算节点上。这主要由不同的材料计算方法的特征决定的,即:机器学习模型在GPU上具有巨大的性能加速效果,而传统数值计算方式加速效果有限,考虑到主流超算平台的异构特性,于是本实施例进行CPU与GPU的异构协同计算。
综上,本公开实施例提供的材料性能预测方法,通过目标预测模型进行材料性能参数的预测,计算速度快;同时,训练目标预测模型所利用的带标签数据中,包含利用传统DFT数值计算方法生成的高质量新增数据,该新增数据优化了训练数据的质量,可以在预测精度与计算性能之间取得较好的平衡。
以及,本实施例将DFT数值计算与机器学习相融合的计算方法,将计算量合理分配到GPU计算节点与CPU计算节点上协同计算,能够更好地发挥主流异构超算平台的计算性能;通过基于训练集数据分解的流水线并行方法实现了GPU上机器学习模型与CPU上DFT数值计算之间的并行协同计算,能够有效提高异构超算平台上的材料并行计算效率。
本技术方案可以兼容不同类型的机器学习模型与主流的第一性原理计算方法与软件,对于面向现代超算平台构建高效的新型材料性能预测软件具有重要价值。
图5为本公开实施例提供的一种基于异构并行的材料性能预测装置的结构框图,该装置可以用于实现上述基于异构并行的材料性能预测方法,该装置可以采用软件和/或硬件实现。如图5所示,该基于异构并行的材料性能预测装置可以包括如下模块:
性能预测模块302,用于通过预先训练好的目标预测模型预测目标材料的目标性能参数;其中,所述目标预测模型的迭代训练过程是采用预先构建的异构并行架构实现的,所述异构并行架构包括:CPU计算节点和GPU计算节点;
所述GPU计算节点,用于选取当前训练数据集训练得到当前预测模型,并通过所述当前预测模型从待查询材料中选取满足预设误差条件的多个材料样本;
所述CPU计算节点,用于对所述材料样本的性能参数进行计算,并将得到的第二性能参数发送给所述GPU计算节点,以使所述GPU计算节点基于标注有所述第二性能参数的材料样本生成新的当前训练数据集。
在一种实施例中,上述基于异构并行的材料性能预测装置还可以包括:用于执行所述目标预测模型的迭代训练过程的训练模块304,所述训练模块304用于:
在所述GPU计算节点中,从预设的数据训练集合中选取当前训练数据集;
基于所述当前训练数据集对历史预测模型进行训练,得到当前预测模型;其中,所述历史预测模型是上一轮训练过程中得到的预测模型;
通过所述当前预测模型从待查询材料中选取满足预设误差条件的多个材料样本;
在所述CPU计算节点中,采用密度泛函理论DFT数值计算方法对所述材料样本的性能参数进行计算,得到第二性能参数;其中,所述预设误差条件包括:所述误差估计值大于预设的第一误差值、和/或排列于预设次序之前的多个最大的所述误差估计值;
在所述GPU计算节点中,基于标注有所述第二性能参数的材料样本生成新的当前训练数据集;
重复执行上述训练过程,直至满足预设停止条件时停止,将停止执行所述训练过程时得到的当前预测模型作为最终的目标预测模型。
在一种实施例中,所述训练模块304还用于:
获取包括带标签数据的训练数据集合;
将所述训练数据集合划分为多个训练数据集,并将多个所述训练数据集逐一作为当前训练数据集。
在一种实施例中,所述训练模块304还用于:
根据所述CPU计算节点的第一执行时间将所述训练数据集合划分为多个训练数据集,以使所述GPU计算节点基于单个所述训练数据集的第二执行时间与所述第一执行时间之间的时间差在预设时间范围内。
在一种实施例中,所述训练模块304还用于:
将标注有所述第二性能参数的所述材料样本作为新增数据加入至参与下一轮所述训练过程的所述训练数据集中;
将加入所述新增数据后的训练数据集作为新的当前训练数据集。
在一种实施例中,所述训练模块304还用于:
通过所述当前预测模型对待查询材料的性能参数进行预测,得到第一性能参数和所述第一性能参数对应的误差估计值;
基于所述第一性能参数对应的误差估计值从所述待查询材料中选取满足预设误差条件的多个材料样本。
在一种实施例中,所述停止条件包括:所述数据训练集合中的数据处理完毕、所述当前预测模型输出的误差估计值低于预设的第二误差值或达到预设的迭代次数。
在一种实施例中,所述性能预测模块302还用于:
将待预测的目标材料的材料数据输入至预先训练好的目标预测模型;
通过所述目标预测模型捕获所述目标材料的材料数据中的特征规律,根据所述特征规律对目标材料的性能参数进行预测,得到目标性能参数;其中,所述特征规律包括:组分、结构和性能。
在一种实施例中,所述预设误差条件包括:所述误差估计值大于预设的第一误差值、和/或排列于预设次序之前的多个最大的所述误差估计值。
本实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
图6为本公开实施例提供的一种电子设备的结构示意图。如图6所示,电子设备400包括一个或多个处理器401和存储器402。
处理器401可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备400中的其他组件以执行期望的功能。
存储器402可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器401可以运行所述程序指令,以实现上文所述的本公开的实施例的基于异构并行的材料性能预测方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备400还可以包括:输入装置403和输出装置404,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入装置403还可以包括例如键盘、鼠标等等。
该输出装置404可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出装置404可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图6中仅示出了该电子设备400中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备400还可以包括任何其他适当的组件。
进一步,本实施例还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述基于异构并行的材料性能预测方法。
本公开实施例所提供的一种基于异构并行的材料性能预测方法、装置、电子设备及介质的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种基于异构并行的材料性能预测方法,其特征在于,包括:
通过预先训练好的目标预测模型预测目标材料的目标性能参数;其中,所述目标预测模型的迭代训练过程是采用预先构建的异构并行架构实现的,所述异构并行架构包括:CPU计算节点和GPU计算节点;
所述GPU计算节点,用于选取当前训练数据集,基于所述当前训练数据集训练得到当前预测模型,并通过所述当前预测模型对待查询材料的性能参数进行预测,得到第一性能参数和所述第一性能参数对应的误差估计值;基于所述第一性能参数对应的误差估计值从所述待查询材料中选取满足预设误差条件的多个材料样本;
所述CPU计算节点,用于对所述材料样本的性能参数进行计算,得到第二性能参数,并将得到的第二性能参数发送给所述GPU计算节点,以使所述GPU计算节点将标注有所述第二性能参数的材料样本作为新增数据加入至参与下一轮训练过程的训练数据集中;将加入所述新增数据后的训练数据集作为新的当前训练数据集。
2.根据权利要求1所述的方法,其特征在于,所述目标预测模型的迭代训练过程包括:
在所述GPU计算节点中,从预设的数据训练集合中选取当前训练数据集;
基于所述当前训练数据集对历史预测模型进行训练,得到当前预测模型;其中,所述历史预测模型是上一轮训练过程中得到的预测模型;
通过所述当前预测模型从待查询材料中选取满足预设误差条件的多个材料样本;
在所述CPU计算节点中,采用密度泛函理论DFT数值计算方法对所述材料样本的性能参数进行计算,得到第二性能参数;
在所述GPU计算节点中,基于标注有所述第二性能参数的材料样本生成新的当前训练数据集;
重复执行上述训练过程,直至满足预设停止条件时停止,将停止执行所述训练过程时得到的当前预测模型作为最终的目标预测模型。
3.根据权利要求2所述的方法,其特征在于,所述从预设的数据训练集合中选取当前训练数据集,包括:
获取包括带标签数据的训练数据集合;
将所述训练数据集合划分为多个训练数据集,并将多个所述训练数据集逐一作为当前训练数据集。
4.根据权利要求3所述的方法,其特征在于,所述将所述训练数据集合划分为多个训练数据集,包括:
根据所述CPU计算节点的第一执行时间将所述训练数据集合划分为多个训练数据集,以使所述GPU计算节点基于单个所述训练数据集的第二执行时间与所述第一执行时间之间的时间差在预设时间范围内。
5.根据权利要求2所述的方法,其特征在于,所述停止条件包括:所述数据训练集合中的数据处理完毕、所述当前预测模型输出的误差估计值低于预设的第二误差值或达到预设的迭代次数。
6.根据权利要求1所述的方法,其特征在于,所述通过预先训练好的目标预测模型预测目标材料的目标性能参数,包括:
将待预测的目标材料的材料数据输入至预先训练好的目标预测模型;
通过所述目标预测模型捕获所述目标材料的材料数据中的特征规律,根据所述特征规律对目标材料的性能参数进行预测,得到目标性能参数;其中,所述特征规律包括:组分、结构和性能。
7.根据权利要求1或2所述的方法,其特征在于,所述预设误差条件包括:误差估计值大于预设的第一误差值、和/或排列于预设次序之前的多个最大的所述误差估计值。
8.一种基于异构并行的材料性能预测装置,其特征在于,包括:
性能预测模块,用于通过预先训练好的目标预测模型预测目标材料的目标性能参数;其中,所述目标预测模型的迭代训练过程是采用预先构建的异构并行架构实现的,所述异构并行架构包括:CPU计算节点和GPU计算节点;
所述GPU计算节点,用于选取当前训练数据集,基于所述当前训练数据集训练得到当前预测模型,并通过所述当前预测模型对待查询材料的性能参数进行预测,得到第一性能参数和所述第一性能参数对应的误差估计值;基于所述第一性能参数对应的误差估计值从所述待查询材料中选取满足预设误差条件的多个材料样本;
所述CPU计算节点,用于对所述材料样本的性能参数进行计算,得到第二性能参数,并将得到的第二性能参数发送给所述GPU计算节点,以使所述GPU计算节点将标注有所述第二性能参数的材料样本作为新增数据加入至参与下一轮训练过程的训练数据集中;将加入所述新增数据后的训练数据集作为新的当前训练数据集。
9.一种电子设备,其特征在于,包括:处理器和存储有计算机程序的存储器,在所述处理器运行所述计算机程序时,实现权利要求1至7中任一项所述的基于异构并行的材料性能预测方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行权利要求1至7中任一项所述的基于异构并行的材料性能预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410156031.XA CN117690536B (zh) | 2024-02-04 | 2024-02-04 | 基于异构并行的材料性能预测方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410156031.XA CN117690536B (zh) | 2024-02-04 | 2024-02-04 | 基于异构并行的材料性能预测方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117690536A CN117690536A (zh) | 2024-03-12 |
CN117690536B true CN117690536B (zh) | 2024-05-14 |
Family
ID=90139490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410156031.XA Active CN117690536B (zh) | 2024-02-04 | 2024-02-04 | 基于异构并行的材料性能预测方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117690536B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019153188A1 (en) * | 2018-02-08 | 2019-08-15 | Alibaba Group Holding Limited | Gpu power modeling using system performance data |
US11004037B1 (en) * | 2019-12-02 | 2021-05-11 | Citrine Informatics, Inc. | Product design and materials development integration using a machine learning generated capability map |
CN113435117A (zh) * | 2021-06-24 | 2021-09-24 | 兰州华宇航天技术应用有限责任公司 | 监视物理实体性能的方法、设备和系统 |
JP2023088210A (ja) * | 2021-12-14 | 2023-06-26 | 横浜ゴム株式会社 | 製品性能の推定モデルの生成方法及び生成装置、製品性能の推定装置及び推定方法、並びにプログラム |
CN117234874A (zh) * | 2023-09-19 | 2023-12-15 | 中国科学院微电子研究所 | 一种异构平台的性能预测方法、装置和电子设备 |
CN117292776A (zh) * | 2023-10-10 | 2023-12-26 | 西南石油大学 | 一种基于机器学习的材料筛选方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7750842B2 (en) * | 2008-09-18 | 2010-07-06 | Raytheon Company | Parallel processing to generate radar signatures for multiple objects |
US20210158147A1 (en) * | 2019-11-26 | 2021-05-27 | International Business Machines Corporation | Training approach determination for large deep learning models |
JP2022132895A (ja) * | 2021-03-01 | 2022-09-13 | 株式会社Uacj | 合金材料の特性を予測する製造支援システム、予測モデルを生成する方法およびコンピュータプログラム |
EP4246323A1 (en) * | 2022-03-17 | 2023-09-20 | Tata Consultancy Services Limited | Method and system to process asynchronous and distributed training tasks |
-
2024
- 2024-02-04 CN CN202410156031.XA patent/CN117690536B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019153188A1 (en) * | 2018-02-08 | 2019-08-15 | Alibaba Group Holding Limited | Gpu power modeling using system performance data |
US11004037B1 (en) * | 2019-12-02 | 2021-05-11 | Citrine Informatics, Inc. | Product design and materials development integration using a machine learning generated capability map |
CN113435117A (zh) * | 2021-06-24 | 2021-09-24 | 兰州华宇航天技术应用有限责任公司 | 监视物理实体性能的方法、设备和系统 |
JP2023088210A (ja) * | 2021-12-14 | 2023-06-26 | 横浜ゴム株式会社 | 製品性能の推定モデルの生成方法及び生成装置、製品性能の推定装置及び推定方法、並びにプログラム |
CN117234874A (zh) * | 2023-09-19 | 2023-12-15 | 中国科学院微电子研究所 | 一种异构平台的性能预测方法、装置和电子设备 |
CN117292776A (zh) * | 2023-10-10 | 2023-12-26 | 西南石油大学 | 一种基于机器学习的材料筛选方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117690536A (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022257316A1 (zh) | 量子体系基态能量估计方法及系统 | |
CN111373420B (zh) | 用于量子计算的方法和系统 | |
EP3504666B1 (en) | Asychronous training of machine learning model | |
CN109994158B (zh) | 一种基于强化学习构建分子反应力场的系统及方法 | |
Sun et al. | A novel APSO-aided maximum likelihood identification method for Hammerstein systems | |
MacLachlan et al. | Theoretical bounds for algebraic multigrid performance: review and analysis | |
KR20220051132A (ko) | 양자 회로 결정 방법 및 장치, 디바이스, 및 저장 매체 | |
Chen et al. | Incremental mechanism of attribute reduction based on discernible relations for dynamically increasing attribute | |
Sarkar et al. | An algorithm for DNA read alignment on quantum accelerators | |
Jiang et al. | Offline-enhanced reduced basis method through adaptive construction of the surrogate training set | |
Liu et al. | Rsc: accelerate graph neural networks training via randomized sparse computations | |
CN111291892A (zh) | 一种量子并行搜索方法 | |
CN117690536B (zh) | 基于异构并行的材料性能预测方法、装置、设备及介质 | |
Ji | Bilevel optimization for machine learning: Algorithm design and convergence analysis | |
CN114692529B (zh) | 一种cfd高维响应的不确定度量化方法、装置、计算机设备 | |
Sun et al. | Location sensitive multi-task oriented service composition for cyber-physical systems | |
Wang et al. | A learning algorithm for Bayesian networks and its efficient implementation on GPUs | |
JP7339923B2 (ja) | 材料の特性値を推定するシステム | |
Chen et al. | A Latent Variable Approach for Non-Hierarchical Multi-Fidelity Adaptive Sampling | |
Liu et al. | Integrating alternating direction method of multipliers and bush for solving the traffic assignment problem | |
Louw et al. | Applying recent machine learning approaches to accelerate the algebraic multigrid method for fluid simulations | |
Cattaruzza et al. | Sound numerical computations in abstract acceleration | |
CN115618663B (zh) | 一种网格方程与物理方程耦合的量子求解方法及装置 | |
Kpogan et al. | Combining MFS and PGD methods to solve transient heat equation | |
Wang et al. | Time scaling transformation avoiding sensitivity discontinuity for nonlinear optimal control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |