CN116862750A - 电力矩阵lu分解加速方法、装置、设备及存储介质 - Google Patents

电力矩阵lu分解加速方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN116862750A
CN116862750A CN202310827171.0A CN202310827171A CN116862750A CN 116862750 A CN116862750 A CN 116862750A CN 202310827171 A CN202310827171 A CN 202310827171A CN 116862750 A CN116862750 A CN 116862750A
Authority
CN
China
Prior art keywords
columns
cuda
column
hierarchy
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310827171.0A
Other languages
English (en)
Inventor
史存存
林龙
杨訸
黄远平
申屠磊璇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Smart Grid Research Institute Co ltd
State Grid Corp of China SGCC
Electric Power Research Institute of State Grid Zhejiang Electric Power Co Ltd
Original Assignee
State Grid Smart Grid Research Institute Co ltd
State Grid Corp of China SGCC
Electric Power Research Institute of State Grid Zhejiang Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Smart Grid Research Institute Co ltd, State Grid Corp of China SGCC, Electric Power Research Institute of State Grid Zhejiang Electric Power Co Ltd filed Critical State Grid Smart Grid Research Institute Co ltd
Priority to CN202310827171.0A priority Critical patent/CN116862750A/zh
Publication of CN116862750A publication Critical patent/CN116862750A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multi Processors (AREA)

Abstract

本发明涉及电力系统高性能计算技术领域,公开了电力矩阵LU分解加速方法、装置、设备及存储介质,方法包括:根据电力矩阵中列与列之间的依赖关系,对电力矩阵进行分层处理,得到多个层级;层级中包含一个或多个列;根据每个层级的列数量,从多个处理单元中确定对应层级中每一列的目标处理单元,以及每一列的目标处理单元的预设数量;列数量表示对应层级中列的数量,多个处理单元包括CUDA线程、CUDA线程束或者CUDA流;分别对对应层级中的每一列采取预设数量的目标处理单元预设数量的目标处理单元用于对对应层级中的每一列执行LU分解。本发明能够根据电力矩阵特性,对GPU资源进行灵活调整,从而达到提高电力矩阵LU分解在GPU上的计算速度的目的。

Description

电力矩阵LU分解加速方法、装置、设备及存储介质
技术领域
本发明涉及电力系统高性能计算技术领域,具体涉及电力矩阵LU分解加速方法、装置、设备及存储介质。
背景技术
随着电力系统的发展,电网变得越来越复杂。为了实时确保电力系统的安全稳定,电力系统模型必须能够处理这种增加的复杂性。因此,为了确保电力系统的高效日常运行,需要更有效的建模和减少计算时间。然而,如何降低电力系统仿真的时间成本是一个难题。稀疏线性代数方程组的求解是电力系统仿真工具中不可或缺的模块之一。LU分解主要用于稀疏线性代数方程组的求解,其中,LU分解是矩阵分解的一种,是指将稀疏矩阵A分解为下三角稀疏矩阵L和上三角稀疏矩阵U的乘积,即A=LU。L和U矩阵与前向和后向替换一起使用,以获得最终解。LU分解是稀疏直接求解器的关键模块之一,通常在电力稀疏线性代数方程组的求解时间中占主导地位。因此,LU分解成为电力系统仿真的关键部分。
作为高性能计算领域的一项新兴技术,GPU(graphics processing unit,图形处理器)因其在单个芯片上拥有数百到数万个内核的高级经济高效配置而显示出极其优越的加速性能,远大于多核CPU。目前高性能计算正在被广泛应用于仿真领域,如电力系统仿真、神经网络仿真和集成电路仿真,包括最优潮流、潮流、瞬态稳定性模拟、和应急分析等应用中。尽管GPU具有上述优点,但由于涉及固有的数据依赖性和不规则的存储器访问模式,在GPU中并行化稀疏矩阵LU因子分解并不是一个简单的过程。在利用GPU进行LU分解时的模式选择只能通过固定阈值进行划分,而不能根据矩阵特性,对GPU资源进行灵活调整。
因此,亟需一种电力矩阵LU分解加速方法,能够充分利用GPU上的各种资源,从而提高稀疏矩阵LU分解在GPU上的计算速度。
发明内容
有鉴于此,本发明提供了一种电力矩阵LU分解加速方法、装置、设备及存储介质,以解决在利用GPU对电力矩阵进行LU分解时由于无法根据矩阵特性,对GPU资源进行合理调整,造成电力矩阵LU分解速度慢,效率低的问题。
第一方面,本发明提供了一种电力矩阵LU分解加速方法,包括:
根据电力矩阵中列与列之间的依赖关系,对所述电力矩阵进行分层处理,得到多个层级;所述层级中包含一个或多个列;
根据每个层级的列数量,从多个处理单元中确定对应层级中每一列的目标处理单元,以及每一列的目标处理单元的预设数量;所述列数量表示对应层级中列的数量,所述多个处理单元包括CUDA线程、CUDA线程束或者CUDA流;
通过各个层级中与每一列对应的预设数量的目标处理单元,对对应列进行LU分解。
本发明提供的电力矩阵LU分解加速方法,通过对电力矩阵进行分层,以及根据分层后每个层级的列数量,确定对应层级中每一列的处理单元以及其处理单元的数量,从而对对应层级中的每一列采取预设数量的处理单元并行执行LU分解,能够根据电力矩阵特性,对GPU资源进行灵活调整,从而达到提高电力矩阵LU分解在GPU上的计算速度的目的。
在一种可选的实施方式中,所述根据每个层级的列数量,从多个处理单元中确定对应层级中每一列的目标处理单元,以及每一列的目标处理单元的预设数量,包括:
如果对应层级的列数量大于流多处理器数量,则确定对应层级中每一列的目标处理单元为CUDA线程或者CUDA线程束,根据可用线程数量和对应层级的列数量,确定对应层级中每一列的CUDA线程或者CUDA线程束的数量;所述CUDA线程或者CUDA线程束用于对对应列的子矩阵进行LU分解;
如果对应层级的列数量小于或者等于流多处理器数量,则确定对应层级中每一列的目标处理单元为CUDA流,根据对应层级的列数量以及对应层级的下一层级的列数量,确定对应层级中每一列的CUDA流的数量;所述CUDA流用于对对应列的子矩阵进行LU分解。
本发明提供的电力矩阵LU分解加速方法,根据矩阵特性选择对应的处理单元,以及其处理单元数量,能够充分利用GPU的计算资源,以达到提高LU分解的计算速度。
在一种可选的实施方式中,所述根据可用线程数量和对应层级的列数量,确定对应层级中每一列的CUDA线程或者CUDA线程束的数量,包括:
如果对应层级的列数量大于第一数值,则根据对应层级的平均子矩阵大小和预设线程数,对该层级中每列的CUDA线程的数量进行设置;所述第一数值由可用线程数量确定;
如果对应层级的列数量小于或者等于第一数值,并且所述列数量大于第二数值,则将对应层级中每列的CUDA线程束的数量设置为预设值;所述第二数值小于所述第一数值;
如果对应层级的列数量小于或者等于第二数值,并且列数量大于或者等于第三数值,则根据可用线程数量、对应层级的列数量和平均子矩阵大小,对该层级中每列的CUDA线程束的数量进行设置;所述第三数值小于所述第二数值,所述第三数值为流多处理器数量。
本发明提供的电力矩阵LU分解加速方法,在对应层级的列数量大于第一数值时,根据对应层级的平均子矩阵大小和预设线程数,对该层级中每列的CUDA线程的数量进行设置;在对应层级的列数量小于或者等于第一数值,并且所述列数量大于第二数值,则将对应层级中每列的CUDA线程束的数量设置为预设值;以及对应层级的列数量小于或者等于第二数值,并且列数量大于或者等于第三数值,则根据可用线程数量、对应层级的列数量和平均子矩阵大小,对该层级中每列的CUDA线程束的数量进行设置,充分考虑到矩阵的特性,并根据矩阵特性对GPU资源进行灵活调整,实现了提高电力矩阵LU分解在GPU上的计算速度。
在一种可选的实施方式中,所述根据对应层级的平均子矩阵大小和预设线程数,对该层级中每列的CUDA线程的数量进行设置,包括:
如果对应层级的平均子矩阵大小小于所述预设线程数,则对该层级中每列的CUDA线程的数量设置为所述平均子矩阵大小。
在一种可选的实施方式中,所述根据可用线程数量、对应层级的列数量和平均子矩阵大小,对该层级中每列的CUDA线程束的数量进行设置,包括:
其中,wrapnum表示对应层级中每列的CUDA线程束的数量,total_th表示可用线程数量,wrapthread表示每个CUDA线程束中线程的数量,level_sizei表示对应层级的列数量,θ表示调节参数,avgsubmatdimi表示对应层级的平均子矩阵大小,maxwrap表示CUDA线程束的最大数量,所述CUDA线程束中包含预设线程数的CUDA线程。
在一种可选的实施方式中,所述根据对应层级的列数量以及对应层级的下一层级的列数量,确定对应层级中每一列的CUDA流的数量,包括:
如果对应层级的列数量为阈值,并且对应层级的下一层级的列数量不为阈值时,则确定对应层级中每一列的CUDA流的数量为阈值。
在一种可选的实施方式中,所述方法还包括:
如果对应层级的列数量为阈值,并且对应层级的下一层级的列数量为阈值时,则为对应层级中每一列设置第一CUDA流和第三CUDA流,为对应层级的下一层级中每一列设置第二CUDA流;
当利用第一CUDA流对对应层级的每一列进行L矩阵更新处理、子矩阵的第一列更新处理后,使用第二CUDA流对对应层级的下一层级中每一列进行L矩阵更新处理、子矩阵的第一列更新处理;并再次使用第一CUDA流对对应层级的每一列进行剩余子矩阵的更新处理;之后使用第三CUDA流对对应层级的每一列进行临时向量重置处理。
本发明提供的电力矩阵LU分解加速方法,通过将由一个CUDA流负责L矩阵更新处理、子矩阵的第一列更新处理,以及通过第一CUDA流、第二CUDA流和第三CUDA流计算列数量为1的多个连续层级,能够大大节省每个步骤所使用的时间,从而达到提高LU分解的计算速度。
第二方面,本发明提供了一种电力矩阵LU分解加速装置,包括:
矩阵分层模块,用于根据电力矩阵中列与列之间的依赖关系,对所述电力矩阵进行分层处理,得到多个层级;所述层级中包含一个或多个列;
处理单元确定模块,用于根据每个层级的列数量,从多个处理单元中确定对应层级中每一列的目标处理单元,以及每一列的目标处理单元的预设数量;所述列数量表示对应层级中列的数量,所述多个处理单元包括CUDA线程、CUDA线程束或者CUDA流;
LU分解模块,用于通过各个层级中与每一列对应的预设数量的目标处理单元,对对应列进行LU分解。
第三方面,本发明提供了一种计算机设备,包括:存储器和处理器,存储器和处理器之间互相通信连接,存储器中存储有计算机指令,处理器通过执行计算机指令,从而执行上述第一方面或其对应的任一实施方式的电力矩阵LU分解加速方法。
第四方面,本发明提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机指令,计算机指令用于使计算机执行上述第一方面或其对应的任一实施方式的电力矩阵LU分解加速方法。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例中关于数据依赖性的示意图;
图2是根据本发明实施例中关于电力稀疏矩阵数据存储的示意图;
图3是根据本发明实施例的一电力矩阵LU分解加速方法的流程示意图;
图4是根据本发明实施例中电力矩阵层级划分的示意图;
图5是根据本发明实施例的另一电力矩阵LU分解加速方法的流程示意图;
图6是根据本发明实施例中关于列数量为阈值的连续层级进行计算的一种具体应用场景的示意图;
图7是根据本发明实施例中关于列数量为阈值的连续层级进行计算的另一种具体应用场景的示意图;
图8是根据本发明实施例的电力矩阵LU分解加速装置的结构框图;
图9是本发明实施例的计算机设备的硬件结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
GPU因其在单个芯片上拥有数百到数万个内核的高级经济高效配置而显示出极其优越的加速性能,远大于多核CPU。目前高性能计算正在被广泛应用于仿真领域,如电力系统仿真、神经网络仿真和集成电路仿真,包括最优潮流、潮流、瞬态稳定性模拟、和应急分析等应用中。尽管GPU具有上述优点,但由于涉及固有的数据依赖性和不规则的存储器访问模式,在GPU中并行化稀疏矩阵LU因子分解并不是一个简单的过程。
其中,通过图1对上述“固有的数据依赖性”进行说明:在利用GPU进行LU分解时,数据0会和第k列的数据1、数据2、数据3相乘,从而更新第j列的数据4、数据5以及数据6;所以只有当第k列计算完成后,才能用第k列的值更新第j列,这是存在先后顺序的,称这种关系为数据依赖。
其中,通过图2对上述“不规则的存储器访问模式”进行说明:电力稀疏矩阵是非常稀疏的,因此在存储时为了节省空间通常采用稀疏压缩存储,稀疏压缩存储又分为行稀疏压缩存储和列压缩稀疏存储,图2给出了列压缩稀疏存储,即:可以将第0列到第6列中的值按照列的顺序排列为1-2-1-3-5-6-7-9-1-3-4-4-8-5,每个值所在位置的行索引是指其值对应的行数,例如6所在位置的行索引为2,即6在原矩阵中的第2列第2行。
利用GPU对电力矩阵进行LU分解中的模式选择通过固定的阈值来划分,过于僵硬,并不能根据矩阵特性,灵活调整对GPU资源的利用。其中,“模式选择”是指对矩阵进行分层,根据每层的大小选择使用小块模式、大块模式、流模式三种模式中的一种进行计算,例如层级大小>固定阈值1,使用小块模式;固定阈值2<层级大小<=固定阈值1,使用大块模式;层级大小<=固定阈值2,使用流模式;对所有矩阵都使用固定阈值1、固定阈值2这两个阈值,而且每个模式下资源的设置是固定的。
为了充分利用GPU上的各种资源,提高稀疏矩阵LU分解在GPU上的计算速度,本专利设计了一种基于GPU的电力矩阵稀疏LU分解加速方法。
根据本发明实施例,提供了一种电力矩阵LU分解加速方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本实施例中提供了一种电力矩阵LU分解加速方法,可用于GPU的控制单元中,图3是根据本发明实施例的电力矩阵LU分解加速方法的流程图,如图3所示,该流程包括如下步骤:
步骤S101,根据电力矩阵中列与列之间的依赖关系,对所述电力矩阵进行分层处理,得到多个层级;所述层级中包含一个或多个列。
具体地,在利用GPU对电力矩阵进行分解之前,会根据依赖关系对矩阵进行分层,如图4所示:图4上面的矩阵是根据图2中的矩阵根据依赖关系填充后的,灰色标注的是填充的部分,层级处理得到矩阵中每列所在的层级lev_idx,例如第0层级中包含1列,分别是电力矩阵的第0列;第1层中包含1列,是电力矩阵的第1列;第2层中包含1列,是电力矩阵的第2列;第3层中包含2列,是电力矩阵的第3、5列;第4层中包含1列,是电力矩阵的第4列;第5层中包含1列,是电力矩阵的第6列;每个层级的起始地址数组lev_ptr,例如lev_ptr[0]=0为第0层级的起始列,lev_ptr[1]=1为第1层级的起始列,lev_ptr[2]=2为第2层级的起始列,...,lev_ptr[5]=6为第5层级的起始列,lev_ptr[6]=7为最后一个层级的结束列。
步骤S102,根据每个层级的列数量,从多个处理单元中确定对应层级中每一列的目标处理单元,以及每一列的目标处理单元的预设数量。
具体地,列数量表示对应层级中列的数量,如图4所示,第0层级的列数量为1,第1层级的列数量为1,第2层级的列数量为1,第3层级的列数量为2,第4层级的列数量为1,第5层级的列数量为1。
具体地,所述多个处理单元包括CUDA线程、CUDA线程束或者CUDA流。其中,CUDA流指的是由主机发出的在一个设备中执行的CUDA操作序列。CUDA流各个操作的次序是由主机控制的,按照主机发布的次序执行。
具体地,可以根据每个层级的列数量,确定该层级中每一列的目标处理单元是CUDA线程或者CUDA线程束,还是CUDA流;以及确定出每一列对应的CUDA线程、CUDA线程束,或者CUDA流的数量。在同一层级中,使用相同数目的CUDA线程、CUDA线程束或者CUDA流对每一列的子矩阵进行LU分解,即L矩阵更新处理、子矩阵更新处理以及临时向量重置处理。
步骤S103,通过各个层级中与每一列对应的预设数量的目标处理单元,对对应列进行LU分解。
具体地,通过上述步骤S102可以确定每个层级中每一列的目标处理单元,以及其目标处理单元的预设数量;然后利用与每一列对应的预设数量的目标处理单元,对该列的子矩阵进行LU分解,例如:电力矩阵A分层后得到层级1、层级2和层级3,每个层级包含3个列;其中,通过上述步骤S102确定出层级1中的列1的目标处理单元为CUDA线程束,预设数量为3,则可以利用3个CUDA线程束对层级1的列1的子矩阵进行LU分解;同理,按照上述流程对每个层级的每个列的子举证进行LU分解。
具体地,所述电力矩阵的LU分解是按照层级进行的,并且每个层级中的所有列并行进行LU分解。
在本实施例中提供了一种电力矩阵LU分解加速方法,可用于GPU的控制单元中,包括步骤S201至步骤S204:
步骤S201,根据电力矩阵中列与列之间的依赖关系,对所述电力矩阵进行分层处理,得到多个层级;所述层级中包含一个或多个列。详细请参见图1所示实施例的步骤S101,在此不再赘述。
步骤S202,根据每个层级的列数量,从多个处理单元中确定对应层级中每一列的目标处理单元,以及每一列的目标处理单元的预设数量;所述列数量表示对应层级中列的数量,所述多个处理单元包括CUDA线程、CUDA线程束或者CUDA流。
具体地,上述步骤S202包括步骤S2021至步骤S2024,如图5所示:
步骤S2021,如果对应层级的列数量大于流多处理器数量,则确定对应层级中每一列的目标处理单元为CUDA线程或者CUDA线程束。
具体地,流多处理器数量可以用dyNstream表示,可以通过以下公式确定流多处理器数量:
dyNstream=min(max(β×avgsubmatdim,μ),maxstream)
其中,dyNstream表示流多处理器数量,avgsubmatdim表示对应层级的列数量在(1,maxstream]范围的所有列子矩阵维度的平均值,β=0.3,μ=4,maxstream表示流多处理器的最大数量。
步骤S2022,根据可用线程数量和对应层级的列数量,确定对应层级中每一列的CUDA线程或者CUDA线程束的数量;所述CUDA线程或者CUDA线程束用于对对应列的子矩阵进行LU分解。
具体地,通过GPU的可用线程的总数,以及对应层级中列的数量对对应层级中每一列的CUDA线程或CUDA线程束的数量进行设置。
在一些可选的实施方式中,上述步骤S2022包括步骤a1、步骤a2和步骤a3,具体如下:
步骤a1,如果对应层级的列数量大于第一数值,则根据对应层级的平均子矩阵大小和预设线程数,对该层级中每列的CUDA线程的数量进行设置;所述第一数值由可用线程数量确定。
具体地,第一数值可以为其中a是指调节参数,可以为2;total_thread是指GPU中可用线程的总数;wrapthread是指CUDA线程的数量为32的线程束。
当对应层级的列数量lev_sizei大于第一数值,即时,可以根据对应层级的平均子矩阵大小和预设线程数,对对应层级中每列的CUDA线程的数量进行设置。
在一些可选的实施方式中,上述步骤a1包括步骤b1,具体如下:
步骤b1,如果对应层级的平均子矩阵大小小于所述预设线程数,则对该层级中每列的CUDA线程的数量设置为所述平均子矩阵大小。
具体地,通过以下公式对步骤b1进行说明:
threadnum=min(avgsubmatdimi,wrapthread)
其中,threadnum表示层级中每列的CUDA线程的数量;avgsubmatdimi表示平均子矩阵大小,可以理解为:层级中每一列具有一个子矩阵,同一层级中的所有子矩阵的平均维度大小表示平均子矩阵大小;wrapthread表示一个线程束中CUDA线程的数量,默认为32。
通过以下实例对上述步骤b1进行说明:第i层级的平均子矩阵维度为18,则可以将第i层级中每列的CUDA线程的数量设置为min(18,32)=18,在这一层级计算完成后,假设第i+1个层级的平均子矩阵维度为14,则可以将第i+1层级中每列的CUDA线程的数量调整为min(14,32)=14。
步骤a2,如果对应层级的列数量小于或者等于第一数值,并且所述列数量大于第二数值,则将对应层级中每列的CUDA线程束的数量设置为预设值;所述第二数值小于所述第一数值。
具体地,通过以下公式对上述步骤a2进行说明:
其中,表示第一数值,/>表示第二数值,lev_sizei表示对应层级的列数量;
当对应层级的列数量小于或者等于第一数值,并且所述列数量大于第二数值时,可以将对应层级中每列的CUDA线程束的数量设置为4,即4*32=128个CUDA线程。
步骤a3,如果对应层级的列数量小于或者等于第二数值,并且列数量大于或者等于第三数值,则根据可用线程数量、对应层级的列数量和平均子矩阵大小,对该层级中每列的CUDA线程束的数量进行设置;所述第三数值小于所述第二数值,所述第三数值为流多处理器数量。
具体地,可以通过以下公式对步骤a3进行说明:
其中,wrapnum表示对应层级中每列的CUDA线程束的数量,total_thread表示GPU中可用线程的数量,wrapthread表示一个CUDA线程束中CUDA线程的数量(默认为32),level_sizei表示对应层级的列数量,θ表示调节参数,可以为1,avgsubmatdimi表示对应层级的平均子矩阵大小,maxwrap表示CUDA线程束的最大数量,所述CUDA线程束中包含预设线程数的CUDA线程。
步骤S2023,如果对应层级的列数量小于或者等于流多处理器数量,则确定对应层级中每一列的目标处理单元为CUDA流。
步骤S2024,根据对应层级的列数量以及对应层级的下一层级的列数量,确定对应层级中每一列的CUDA流的数量;所述CUDA流用于对对应列的子矩阵进行LU分解。
在一些可选的实施方式中,上述步骤S2024包括步骤c1和步骤c2,具体如下:
步骤c1,当对应层级的列数量为阈值,并且对应层级的下一层级的列数量不为阈值时,则确定对应层级中每一列的CUDA流的数量为阈值。其中,该阈值可以为1。
具体地,当层级中仅有一个列时,可以使用一个CUDA流作为处理单元,来负责这个列的LU分解,即L矩阵更新处理、子矩阵更新处理和临时向量重置处理。其中,一列计算的三个步骤L矩阵更新处理、子矩阵更新处理和临时向量重置处理按顺序提交给同一个CUDA流,每个CUDA流按顺序执行上述3个步骤。同一层级的多个列通过使用不同的流进行并行处理。其中,L矩阵更新处理是指把当前正在计算的列对角线之下的值除以对角线的值,并且把这些值存储到一个临时向量里;子矩阵更新处理是指根据U的第k行和L的第k列的非零值更新第k列的子矩阵;临时向量重置处理是指将L更新处理时存储到临时向量的值设置为0。
步骤c2,如果对应层级的列数量为阈值,并且对应层级的下一层级的列数量为阈值时,则为对应层级中每一列设置第一CUDA流和第三CUDA流,为对应层级的下一层级中每一列设置第二CUDA流;其中,上述阈值可以为1。
当利用第一CUDA流对对应层级的每一列进行L矩阵更新处理、子矩阵的第一列更新处理后,使用第二CUDA流对对应层级的下一层级中每一列进行L矩阵更新处理、子矩阵的第一列更新处理;并再次使用第一CUDA流对对应层级的每一列进行剩余子矩阵的更新处理,之后使用第三CUDA流对对应层级的每一列进行临时向量重置处理。
具体地,在列数量为1的多个连续级别中,下一级别的列是上一级别的子矩阵的第一列。在上一级完成子矩阵中第一列的更新后,可以启动下一级的计算,如图6,S1表示L矩阵的列更新、S2表示子矩阵更新中第一列更新、S3表示子矩阵剩余列更新、S4表示层级占用的临时向量进行重置。测试了每个步骤的时间,发现主要时间基本上集中在S3(子矩阵剩余列更新)这一步,这一步的时间基本上都大于S1(即L矩阵的列更新)和S2(子矩阵更新中第一列更新)两步的时间之和,为了减少核函数调用的数目,我们将S1(L矩阵的列更新)和S2(子矩阵更新第一列更新)合并在一起执行,如图7所示。
通过以下具体实施例,对步骤c2进行说明:
使用第一CUDA流、第二CUDA流和第三CUDA流实现流水线模式,利用将核函数放到默认流中时,默认流所有之后的操作都会被阻塞,默认流计算完成之后继续执行后续操作的特性完成流水线模式的设计,具体过程如下:
Step1:对遇到的第一个列数量为1的层级i,使用默认流对该层级中的列进行L矩阵的更新,并对子矩阵的第一列进行更新。
Step2:判断下一个层级是否是大小为1的层级,如果是大小为1的层级则进如step3;否则,跳到step7。
Step3:使用stream0对第i+1个层级中的列进行L矩阵的更新并对子矩阵的第一列进行更新。
Step4:使用默认流对第i个层级中的列进行剩余子矩阵的更新。
Step5:使用stream1对第i个层级占用的临时向量进行重置。
Step6:i=i+1,回到步骤2。
Step7:使用默认流对第i个层级中的列进行剩余子矩阵的更新。
Step8:使用默认流对第i个层级占用的临时向量进行重置。
其中,默认流可以为第一CUDA流,stream0可以为第二CUDA流,stream1可以为第三CUDA流。
步骤S203,分别对对应层级中的每一列采取预设数量的处理单元并行执行LU分解。详细请参见图1所示实施例的步骤S103,在此不再赘述。
在一些优选的实施例中,所述方法还包括:
考虑到当使用cudaMemcpy函数执行数据从主机到设备和设备到主机的拷贝,由于该函数是同步执行函数,在未完成数据的转移操作之前会锁死并一直占有CPU进程的控制权。在主机和设备进行数据传输的过程中,后面的操作要等待前面的数据传输完成才开始,这会阻塞主机上后续操作。本发明对多个主机和设备之间的数据传输采用异步的方式,使计算和数据传输异步进行,而不是等数据传输完再做计算,由此隐藏数据传输带来的时间延迟,加快LU分解速度。
技术效果:
1、本发明根据每个层级的列数量,确定对应层级中每一列的处理单元,以及其处理单元的数量,能够根据矩阵的特征选择要使用的模式,充分利用GPU计算资源,提高LU分解的计算速度。
2、本发明中根据对应层级的列数量以及下一层级的列数量,确定对应层级中每一列的CUDA流的数量,能够根据子矩阵维度动态确定要使用的CUDA流的数量,提高LU分解的计算速度。
3、本发明通过使用流水线(第一CUDA流、第二CUDA流和第三CUDA流)加速列数量为1的连续层级的计算,提高LU分解的计算速度。
4、本发明通过异步并行优化数据传输,减少数据传输带来的计算延迟,提高LU分解的计算速度。
在本实施例中还提供了一种电力矩阵LU分解加速装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本实施例提供一种电力矩阵LU分解加速装置,如图8所示,包括:
矩阵分层模块501,用于根据电力矩阵中列与列之间的依赖关系,对所述电力矩阵进行分层处理,得到多个层级;所述层级中包含一个或多个列。
处理单元确定模块502,用于根据每个层级的列数量,从多个处理单元中确定对应层级中每一列的目标处理单元,以及每一列的目标处理单元的预设数量;所述列数量表示对应层级中列的数量,所述多个处理单元包括CUDA线程、CUDA线程束或者CUDA流。
LU分解模块503,用于通过各个层级中与每一列对应的预设数量的目标处理单元,对对应列进行LU分解。
在一些可选的实施方式中,处理单元确定模块502包括:
线程确定单元,用于的那元如果对应层级的列数量大于流多处理器数量,则确定对应层级中每一列的目标处理单元为CUDA线程或者CUDA线程束。
线程数量确定单元,用于根据可用线程数量和对应层级的列数量,确定对应层级中每一列的CUDA线程或者CUDA线程束的数量;所述CUDA线程或者CUDA线程束用于对对应列的子矩阵进行LU分解。
流确定单元,用于如果对应层级的列数量小于或者等于流多处理器数量,则确定对应层级中每一列的目标处理单元为CUDA流。
流数量确定单元,用于根据对应层级的列数量以及对应层级的下一层级的列数量,确定对应层级中每一列的CUDA流的数量;所述CUDA流用于对对应列的子矩阵进行LU分解。
在一些可选的实施方式中,线程数量确定单元包括:
第一线程数量确定子单元,用于如果对应层级的列数量大于第一数值,则根据对应层级的平均子矩阵大小和预设线程数,对该层级中每列的CUDA线程的数量进行设置;所述第一数值由可用线程数量确定。
第二线程数量确定子单元,用于如果对应层级的列数量小于或者等于第一数值,并且所述列数量大于第二数值,则将对应层级中每列的CUDA线程的数量设置为预设阈值;所述第二数值小于所述第一数值。
第三线程数量确定子单元,用于如果对应层级的列数量小于或者等于第二数值,并且列数量大于或者等于第三数值,则根据可用线程数量、对应层级的列数量和平均子矩阵大小,对该层级中每列的CUDA线程的数量进行设置;所述第三数值小于所述第二数值,所述第三数值为流多处理器数量。
在一些可选的实施方式中,第一线程数量确定子单元还用于:如果对应层级的平均子矩阵大小小于所述预设线程数,则对该层级中每列的CUDA线程的数量设置为所述平均子矩阵大小。
在一些可选的实施方式中,第三线程数量确定子单元还用于通过以下公式对该层级中每列的CUDA线程束的数量进行设置:
其中,wrapnum表示对应层级中每列的CUDA线程束的数量,total_thread表示可用线程数量,wrapthread表示每个CUDA线程束中线程的数量,level_sizei表示对应层级的列数量,θ表示调节参数,avgsubmatdimi表示对应层级的平均子矩阵大小,maxwrap表示CUDA线程束的最大数量,所述CUDA线程束中包含预设线程数的CUDA线程。
在一些可选的实施方式中,流数量确定单元包括:
第一流数量确定子单元,用于如果对应层级的列数量为阈值,并且对应层级的下一层级的列数量不为阈值时,则确定对应层级中每一列的CUDA流的数量为阈值。
在一些可选的实施方式中,装置还包括:
第二流数量确定子单元,用于如果对应层级的列数量为阈值,并且对应层级的下一层级的列数量为阈值时,则为对应层级中每一列设置第一CUDA流和第三CUDA流,为对应层级的下一层级中每一列设置第二CUDA流;
当利用第一CUDA流对对应层级的每一列进行L矩阵更新处理、子矩阵的第一列更新处理后,使用第二CUDA流对对应层级的下一层级中每一列进行L矩阵更新处理、子矩阵的第一列更新处理;并再次使用第一CUDA流对对应层级的每一列进行剩余子矩阵的更新处理,之后使用第三CUDA流对对应层级的每一列进行临时向量重置处理。
上述各个模块和单元的更进一步的功能描述与上述对应实施例相同,在此不再赘述。
本发明实施例还提供一种计算机设备,具有上述图8所示的电力矩阵LU分解加速装置。
请参阅图9,图9是本发明可选实施例提供的一种计算机设备的结构示意图,如图9所示,该计算机设备包括:一个或多个处理器10、存储器20,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相通信连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在计算机设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在一些可选的实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个计算机设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图9中以一个处理器10为例。
处理器10可以是中央处理器,网络处理器或其组合。其中,处理器10还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路,可编程逻辑器件或其组合。上述可编程逻辑器件可以是复杂可编程逻辑器件,现场可编程逻辑门阵列,通用阵列逻辑或其任意组合。
其中,所述存储器20存储有可由至少一个处理器10执行的指令,以使所述至少一个处理器10执行实现上述实施例示出的方法。
存储器20可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器20可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些可选的实施方式中,存储器20可选包括相对于处理器10远程设置的存储器,这些远程存储器可以通过网络连接至该计算机设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
存储器20可以包括易失性存储器,例如,随机存取存储器;存储器也可以包括非易失性存储器,例如,快闪存储器,硬盘或固态硬盘;存储器20还可以包括上述种类的存储器的组合。
该计算机设备还包括通信接口30,用于该计算机设备与其他设备或通信网络通信。
本发明实施例还提供了一种计算机可读存储介质,上述根据本发明实施例的方法可在硬件、固件中实现,或者被实现为可记录在存储介质,或者被实现通过网络下载的原始存储在远程存储介质或非暂时机器可读存储介质中并将被存储在本地存储介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件的存储介质上的这样的软件处理。其中,存储介质可为磁碟、光盘、只读存储记忆体、随机存储记忆体、快闪存储器、硬盘或固态硬盘等;进一步地,存储介质还可以包括上述种类的存储器的组合。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件,当软件或计算机代码被计算机、处理器或硬件访问且执行时,实现上述实施例示出的方法。
虽然结合附图描述了本发明的实施例,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。

Claims (10)

1.一种电力矩阵LU分解加速方法,其特征在于,包括:
根据电力矩阵中列与列之间的依赖关系,对所述电力矩阵进行分层处理,得到多个层级;所述层级中包含一个或多个列;
根据每个层级的列数量,从多个处理单元中确定对应层级中每一列的目标处理单元,以及每一列的目标处理单元的预设数量;所述列数量表示对应层级中列的数量,所述多个处理单元包括CUDA线程、CUDA线程束或者CUDA流;
通过各个层级中与每一列对应的预设数量的目标处理单元,对对应列进行LU分解。
2.根据权利要求1所述的方法,其特征在于,所述根据每个层级的列数量,从多个处理单元中确定对应层级中每一列的目标处理单元,以及每一列的目标处理单元的预设数量,包括:
如果对应层级的列数量大于流多处理器数量,则确定对应层级中每一列的目标处理单元为CUDA线程或者CUDA线程束,根据可用线程数量和对应层级的列数量,确定对应层级中每一列的CUDA线程或者CUDA线程束的数量;所述CUDA线程或者CUDA线程束用于对对应列的子矩阵进行LU分解;
如果对应层级的列数量小于或者等于流多处理器数量,则确定对应层级中每一列的目标处理单元为CUDA流,根据对应层级的列数量以及对应层级的下一层级的列数量,确定对应层级中每一列的CUDA流的数量;所述CUDA流用于对对应列的子矩阵进行LU分解。
3.根据权利要求2所述的方法,其特征在于,所述根据可用线程数量和对应层级的列数量,确定对应层级中每一列的CUDA线程或者CUDA线程束的数量,包括:
如果对应层级的列数量大于第一数值,则根据对应层级的平均子矩阵大小和预设线程数,对该层级中每列的CUDA线程的数量进行设置;所述第一数值由可用线程数量确定;
如果对应层级的列数量小于或者等于第一数值,并且所述列数量大于第二数值,则将对应层级中每列的CUDA线程束的数量设置为预设阈值;所述第二数值小于所述第一数值;
如果对应层级的列数量小于或者等于第二数值,并且列数量大于或者等于第三数值,则根据可用线程数量、对应层级的列数量和平均子矩阵大小,对该层级中每列的CUDA线程束的数量进行设置;所述第三数值小于所述第二数值,所述第三数值为流多处理器数量。
4.根据权利要求3所述的方法,其特征在于,所述根据对应层级的平均子矩阵大小和预设线程数,对该层级中每列的CUDA线程的数量进行设置,包括:
如果对应层级的平均子矩阵大小小于所述预设线程数,则对该层级中每列的CUDA线程的数量设置为所述平均子矩阵大小。
5.根据权利要求3或4所述的方法,其特征在于,所述根据可用线程数量、对应层级的列数量和平均子矩阵大小,对该层级中每列的CUDA线程束的数量进行设置,包括:
其中,wrapnum表示对应层级中每列的CUDA线程束的数量,total_thread表示可用线程数量,wrapthread表示每个CUDA线程束中线程的数量,level_sizei表示对应层级的列数量,θ表示调节参数,avgsubmatdimi表示对应层级的平均子矩阵大小,maxwrap表示CUDA线程束的最大数量,所述CUDA线程束中包含预设线程数的CUDA线程。
6.根据权利要求2所述的方法,其特征在于,所述根据对应层级的列数量以及对应层级的下一层级的列数量,确定对应层级中每一列的CUDA流的数量,包括:
如果对应层级的列数量为阈值,并且对应层级的下一层级的列数量不为阈值时,则确定对应层级中每一列的CUDA流的数量为阈值。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
如果对应层级的列数量为阈值,并且对应层级的下一层级的列数量为阈值时,则为对应层级中每一列设置第一CUDA流和第三CUDA流,为对应层级的下一层级中每一列设置第二CUDA流;
当利用第一CUDA流对对应层级的每一列进行L矩阵更新处理、子矩阵的第一列更新处理后,使用第二CUDA流对对应层级的下一层级中每一列进行L矩阵更新处理、子矩阵的第一列更新处理;并再次使用第一CUDA流对对应层级的每一列进行剩余子矩阵的更新处理,之后使用第三CUDA流对对应层级的每一列进行临时向量重置处理。
8.一种电力矩阵LU分解加速装置,其特征在于,包括:
矩阵分层模块,用于根据电力矩阵中列与列之间的依赖关系,对所述电力矩阵进行分层处理,得到多个层级;所述层级中包含一个或多个列;
处理单元确定模块,用于根据每个层级的列数量,从多个处理单元中确定对应层级中每一列的目标处理单元,以及每一列的目标处理单元的预设数量;所述列数量表示对应层级中列的数量,所述多个处理单元包括CUDA线程、CUDA线程束或者CUDA流;
LU分解模块,用于通过各个层级中与每一列对应的预设数量的目标处理单元,对对应列进行LU分解。
9.一种计算机设备,其特征在于,包括:
存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行权利要求1至7中任一项所述的电力矩阵LU分解加速方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令用于使计算机执行权利要求1至7中任一项所述的电力矩阵LU分解加速方法。
CN202310827171.0A 2023-07-06 2023-07-06 电力矩阵lu分解加速方法、装置、设备及存储介质 Pending CN116862750A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310827171.0A CN116862750A (zh) 2023-07-06 2023-07-06 电力矩阵lu分解加速方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310827171.0A CN116862750A (zh) 2023-07-06 2023-07-06 电力矩阵lu分解加速方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN116862750A true CN116862750A (zh) 2023-10-10

Family

ID=88221119

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310827171.0A Pending CN116862750A (zh) 2023-07-06 2023-07-06 电力矩阵lu分解加速方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN116862750A (zh)

Similar Documents

Publication Publication Date Title
KR102142889B1 (ko) 스파스 연결용 인공 신경망 계산 장치와 방법
CN112214726B (zh) 运算加速器
JP7078758B2 (ja) 機械学習モデルを改良して局所性を改善させること
US9910714B2 (en) Scriptable dynamic load balancing in computer systems
US20210319821A1 (en) Integrated Circuit Device with Deep Learning Accelerator and Random Access Memory
CN115880132B (zh) 图形处理器、矩阵乘法任务处理方法、装置及存储介质
CN114995782B (zh) 数据处理方法、装置、设备和可读存储介质
CN109416755B (zh) 人工智能并行处理方法、装置、可读存储介质、及终端
US11429849B2 (en) Deep compressed network
US8768680B2 (en) Simulator of multi-core system employing reconfigurable processor cores and method of simulating multi-core system employing reconfigurable processor cores
DE102022127894A1 (de) Durchgehender schutz von daten für rechnen in speicher (cim)/rechnen in nahspeicher (cnm)
KR20210044180A (ko) 고급 상호 연결 통신기술을 이용한 ai 훈련 가속화 방법 및 시스템
CN114626516A (zh) 一种基于对数块浮点量化的神经网络加速系统
CN110490308B (zh) 加速库的设计方法、终端设备及存储介质
KR20210014561A (ko) 다수 컨벌루션 윈도우 중의 이미지 데이터를 추출하는 방법, 장치, 기기 및 컴퓨터 판독 가능한 저장매체
CN116681127B (zh) 一种神经网络模型训练方法、装置及电子设备和存储介质
CN116862750A (zh) 电力矩阵lu分解加速方法、装置、设备及存储介质
DE102022105958A1 (de) Techniken zum ausgleichen von arbeitslasten beim parallelisieren von multiplizier-akkumulier-berechnungen
CN110929854B (zh) 一种数据处理方法、装置及硬件加速器
CN113887730A (zh) 量子模拟器实现方法、装置、相关设备以及量子模拟方法
Kuźnik et al. Graph grammar-based multi-frontal parallel direct solver for two-dimensional isogeometric analysis
CN113888390A (zh) 特征图处理方法、装置、电子设备和计算机可读介质
US8549456B2 (en) System and method for circuit design floorplanning
US20080147767A1 (en) Binomial options pricing model computations using a parallel processor
CN220983883U (zh) 矩阵计算装置、小芯片设备及人工智能加速器装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination