CN106407158B - 一种gpu加速的批处理同构稀疏矩阵乘满向量的处理方法 - Google Patents
一种gpu加速的批处理同构稀疏矩阵乘满向量的处理方法 Download PDFInfo
- Publication number
- CN106407158B CN106407158B CN201610814518.8A CN201610814518A CN106407158B CN 106407158 B CN106407158 B CN 106407158B CN 201610814518 A CN201610814518 A CN 201610814518A CN 106407158 B CN106407158 B CN 106407158B
- Authority
- CN
- China
- Prior art keywords
- matrix
- csr
- full vector
- gpu
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
Abstract
本发明公开了一种GPU加速的批处理同构稀疏矩阵乘满向量的处理方法,所述方法包括:(1)在CPU中将所有矩阵A1~Abs存储为行压缩存储格式;(2)CPU将GPU内核函数所需数据传输给GPU;(3)将矩阵A1~Abs的乘满向量任务分配给GPU线程,并优化内存访问模式;(4)GPU中执行批处理同构稀疏矩阵乘满向量内核函数spmv_batch,调用内核函数来批处理并行计算同构稀疏矩阵乘满向量。本发明中CPU负责控制程序的整体流程和准备数据,GPU负责计算密集的向量乘法,利用批处理模式提高了算法并行度和访存效率,大幅降低了批量稀疏矩阵乘满向量的计算时间。
Description
技术领域
本发明属于电力系统高性能计算应用领域,尤其涉及一种GPU加速的批处理同构稀疏矩阵乘满向量的处理方法。
背景技术
潮流计算是电力系统中应用最广泛、最基本和最重要的一种电气运算。在电力系统运行方式和规划方案的研究中,都需要进行潮流计算以比较运行方式或规划供电方案的可行性、可靠性和经济性。同时,为了实时监控电力系统的运行状态,也需要进行大量而快速的潮流计算。因此,在系统规划设计和安排系统的运行方式时,采用离线潮流计算;在电力系统运行状态的实时监控中,则采用在线潮流计算。
而实际生产过程中,无论离线潮流和在线潮流计算都对潮流的计算速度有这比较高的要求。在涉及规划设计和安排运行方式的离线潮流中,因设备落地方案等情况复杂,需要仿真运行的种类多,潮流计算量大,单个潮流计算时间影响整体仿真时长;而在电力系统运行中进行的在线潮流计算对计算时间敏感度高,需要实时给出潮流计算结果,如在预想事故、设备退出运行对静态安全的影响的潮流计算中,系统需要计算大量预想事故下潮流分布,并实时地做出预想的运行方式调整方案。
传统的牛顿拉夫逊法潮流计算中,修正方程组求解占潮流计算时间的70%,修正方程组求解的计算速度影响程序的整体性能。而随着CPU计算速度提升的放缓,现阶段的单个潮流计算计算时间已经达到一个瓶颈。目前对潮流计算的加速方法大多集中在单个潮流内部运算加速,实际生成中对批处理加速潮流计算的研究较少。
GPU是一种众核并行处理器,在处理单元的数量上要远远超过CPU。传统上的GPU只负责图形渲染,而大部分的处理都交给了CPU。现在的GPU已经法阵为一种多核,多线程,具有强大计算能力和极高存储器带宽,可编程的处理器。在通用计算模型下,GPU作为CPU的协处理器工作,通过任务合理分配分解完成高性能计算。
稀疏线性方程组求解计算具有并行性。使用迭代法求解大型稀疏线性方程已经得到广泛的关注与应用。在迭代法求解稀疏线性方程过程中有大量的稀疏矩阵乘满向量的计算需求。因为矩阵中每行与满向量相乘的计算相互独立,没有依赖关系,天然可以被并行的计算处理,适合GPU加速。
N-1静态安全分析需要计算大量的潮流,在使用迭代法求解潮流修正方程时稀疏矩阵乘满向量是其中重要的模块,耗时很多。但由于断线最多只影响稀疏矩阵四个位置的元素,因此通过冗余设计,可将所有断线故障的节点导纳阵冗余设计成和基态电网稀疏结构相同的一系列矩阵,然后再按相同的稀疏存储格式合并存储,以实现GPU读取数据的合并访问。再通过CPU和GPU之间合理的调度可以批处理同构稀疏矩阵乘满向量。国内外学者已经开始对GPU进行稀疏线性方程组加速迭代求解的方法进行了研究,但是没有对其中重要的模块稀疏矩阵乘满向量的加速求解做过专门研究,也没做过批处理同构稀疏矩阵乘满向量的工作,无法使程序充分发挥GPU的优势。
因此,亟待解决上述问题。
发明内容
发明目的:针对现有技术的不足,本发明提供了一种能提高了算法并行度和访存效率,大幅减少N-1静态安全分析中迭代法求解潮流修正方程时庞大稀疏矩阵乘满向量计算需求耗时的GPU加速的批处理同构稀疏矩阵乘满向量的处理方法。
潮流计算:电力学名词,指在给定电力系统网络拓扑、元件参数和发电、负荷参量条件下,计算有功功率、无功功率及电压在电力网中的分布。
N-1静态安全分析:对运行中的网络或某一研究态下的网络,按N-1原则,研究一个个运行元件因故障退出运行后,元件有无过负荷及母线电压有无越限。
GPU:图形处理器(英语:GraphicsProcessingUnit,缩写:GPU)。
技术方案:本发明所述的一种GPU加速的批处理同构稀疏矩阵乘满向量的处理方法,大量同构稀疏矩阵A1~Abs的乘满向量操作:A1x1=b1,…,Absxbs=bbs,其中x1~xbs为被乘的满向量,b1~bbs为结果满向量,bs为批处理的矩阵数量,所述方法包括:
(1)在CPU中将所有矩阵A1~Abs存储为行压缩存储格式,矩阵A1~Abs共享相同的行偏移数组CSR_Row和列号数组CSR_Col,行偏移数组元素CSR_Row[k]中存储的是矩阵第k行之前的非零元总数,k取值范围从1到n+1;每个矩阵具体的数值存储于各自的数值数组CSR_Val1~CSR_Valbs中,被乘满向量存储于数组x1~xbs中,结果满向量存储于数组b1~bbs中,数组CSR_Val1~CSR_Valbs、数组x1~xbs和数组b1~bbs都按照矩阵编号递增顺序连续存储;
(2)CPU将GPU内核函数所需数据传输给GPU;
(3)将矩阵A1~Abs的乘满向量任务分配给GPU线程,一个线程块负责矩阵A1~Abs中特定一行的乘满向量计算,并优化内存访问模式;
(4)GPU中执行批处理同构稀疏矩阵乘满向量内核函数spmv_batch,批处理同构稀疏矩阵乘满向量内核函数定义为spmv_batch<Nblocks,Nthreads>,其线程块大小Nthread为bs,线程块数量Nblocks=n,总线程数量为:Nblocks×Nthreads;调用内核函数spmv_batch<Nblocks,Nthreads>来批处理并行计算同构稀疏矩阵乘满向量。
其中,所述步骤(2)中,其所需数据包括:稀疏矩阵的维数n,批处理的矩阵数量bs,稀疏结构数组CSR_Row和CSR_Col,稀疏矩阵数值数组CSR_Val1~CSR_Valbs,被乘满向量x1~xbs,结果满向量b1~bbs。
优选的,所述步骤(3)中,所述数值数组CSR_Val1~CSR_Valbs、被乘满向量x1~xbs、结果满向量b1~bbs的存储区域均为bs行的矩阵,并对三个矩阵进行转置操作,以实现合并访问。
再者,所述步骤(4)中,所述内核函数spmv_batch<Nblocks,Nthreads>的计算流程为:
(4.1)CUDA自动为每个线程分配线程块索引blockID和线程块中的线程索引threadID;
(4.2)将blockID和threadID赋值给变量bid和t,之后通过bid和t来索引bid号线程块中的t号线程;
(4.3)第bid号线程块负责所有矩阵第bid行的乘满向量操作;
(4.4)第bid号线程块中,每个线程负责一个矩阵的第bid行乘满向量,具体步骤如下:
1)读取当前行以及下一行的第一个非零元的索引CSR_Row[bid]和CSR_Row[bid+1],定义变量j=CSR_Row[bid];
2)判断j是否小于CSR_Row[bid+1],否则线程结束执行;
3)读取当前列CSR_Col[j],并把它赋值给变量cur_col;
4)更新结果满向量bt的bid号元素值bt[bid]+=CSR_Valt[j]×xt[cur_col];
5)j=j+1,返回2)。
有益效果:与现有技术比,本发明具有以下显著优点:本发明利用CPU负责控制程序的整体流程和准备数据,GPU负责计算密集的向量乘法,利用批处理模式提高了算法并行度和访存效率,大幅降低了批量稀疏矩阵乘满向量的计算时间,可以解决N-1静态安全性分析中迭代法求解潮流修正方程时庞大的稀疏矩阵乘满向量计算需求耗时多的问题。
附图说明:
图1为本发明的实例电网的数据表;
图2为本发明的实例计算时间;
图3为本发明的流程示意图。
具体实施方式:
如图3所示,本发明一种GPU加速的批处理同构稀疏矩阵乘满向量的处理方法,大量同构稀疏矩阵A1~Abs的乘满向量操作:A1x1=b1,…,Absxbs=bbs,其中x1~xbs为被乘的满向量,b1~bbs为结果满向量,bs为批处理的矩阵数量,所述方法包括:
(1)在CPU中将所有矩阵A1~Abs存储为行压缩存储格式,矩阵A1~Abs共享相同的行偏移数组CSR_Row和列号数组CSR_Col,行偏移数组元素CSR_Row[k]中存储的是矩阵第k行之前的非零元总数,k取值范围从1到n+1;每个矩阵具体的数值存储于各自的数值数组CSR_Val1~CSR_Valbs中,被乘满向量存储于数组x1~xbs中,结果满向量存储于数组b1~bbs中,数组CSR_Val1~CSR_Valbs、数组x1~xbs和数组b1~bbs都按照矩阵编号递增顺序连续存储;
(2)CPU将GPU内核函数所需数据传输给GPU,所需数据包括:稀疏矩阵的维数n,批处理的矩阵数量bs,稀疏结构数组CSR_Row和CSR_Col,稀疏矩阵数值数组CSR_Val1~CSR_Valbs,被乘满向量x1~xbs,结果满向量b1~bbs;
(3)将矩阵A1~Abs的乘满向量任务分配给GPU线程,一个线程块负责矩阵A1~Abs中特定一行的乘满向量计算,并优化内存访问模式;其中,所述数值数组CSR_Val1~CSR_Valbs、被乘满向量x1~xbs、结果满向量b1~bbs的存储区域均为bs行的矩阵,并对三个矩阵进行转置操作,以实现合并访问;
(4)GPU中执行批处理同构稀疏矩阵乘满向量内核函数spmv_batch,批处理同构稀疏矩阵乘满向量内核函数定义为spmv_batch<Nblocks,Nthreads>,其线程块大小Nthread为bs,线程块数量Nblocks=n,总线程数量为:Nblocks×Nthreads;调用内核函数spmv_batch<Nblocks,Nthreads>来批处理并行计算同构稀疏矩阵乘满向量。
本发明内核函数spmv_batch<Nblocks,Nthreads>的计算流程为:
(4.1)CUDA自动为每个线程分配线程块索引blockID和线程块中的线程索引threadID;
(4.2)将blockID和threadID赋值给变量bid和t,之后通过bid和t来索引bid号线程块中的t号线程;
(4.3)第bid号线程块负责所有矩阵第bid行的乘满向量操作;
(4.4)第bid号线程块中,每个线程负责一个矩阵的第bid行乘满向量,具体步骤如下:
1)读取当前行以及下一行的第一个非零元的索引CSR_Row[bid]和CSR_Row[bid+1],定义变量j=CSR_Row[bid];
2)判断j是否小于CSR_Row[bid+1],否则线程结束执行;
3)读取当前列CSR_Col[j],并把它赋值给变量cur_col;
4)更新结果满向量bt的bid号元素值bt[bid]+=CSR_Valt[j]×xt[cur_col];
5)j=j+1,返回2)。
本发明所使用的GPU计算平台配备一张TeslaK20CGPU卡和IntelXeonE5-2620CPU,GPU的峰值带宽可达208GB/s,单精度浮点计算量峰值可达3.52Tflops,CPU主频为2GHz。CPU计算平台配备IntelCorei7-3520M2.90GHz的CPU。GPU计算平台上对图1中的四个实例电网的电纳矩阵进行了测试,图2为对应四个电网的不同bs下稀疏矩阵乘满向量的测试时间。
Claims (3)
1.一种GPU加速的批处理同构稀疏矩阵乘满向量的处理方法,大量同构稀疏矩阵A1~Abs的乘满向量操作:A1x1=b1,…,Absxbs=bbs,其中x1~xbs为被乘的满向量,b1~bbs为结果满向量,bs为批处理的矩阵数量,其特征在于:所述方法包括如下步骤:
(1)在CPU中将所有矩阵A1~Abs存储为行压缩存储格式,矩阵A1~Abs共享相同的行偏移数组CSR_Row和列号数组CSR_Col,行偏移数组元素CSR_Row[k]中存储的是矩阵第k行之前的非零元总数,k取值范围从1到n+1;每个矩阵具体的数值存储于各自的数值数组CSR_Val1~CSR_Valbs中,被乘满向量存储于数组x1~xbs中,结果满向量存储于数组b1~bbs中,数组CSR_Val1~CSR_Valbs、数组x1~xbs和数组b1~bbs都按照矩阵编号递增顺序连续存储;
(2)CPU将GPU内核函数所需数据传输给GPU;
(3)将矩阵A1~Abs的乘满向量任务分配给GPU线程,一个线程块负责矩阵A1~Abs中特定一行的乘满向量计算,并优化内存访问模式;
(4)GPU中执行批处理同构稀疏矩阵乘满向量内核函数spmv_batch,批处理同构稀疏矩阵乘满向量内核函数定义为spmv_batch<Nblocks,Nthreads>,其线程块大小Nthread为bs,线程块数量Nblocks=n,总线程数量为:Nblocks×Nthreads;调用内核函数spmv_batch<Nblocks,Nthreads>来批处理并行计算同构稀疏矩阵乘满向量;所述内核函数spmv_batch<Nblocks,Nthreads>的计算流程为:
(4.1)CUDA自动为每个线程分配线程块索引blockID和线程块中的线程索引threadID;
(4.2)将blockID和threadID赋值给变量bid和t,之后通过bid和t来索引bid号线程块中的t号线程;
(4.3)第bid号线程块负责所有矩阵第bid行的乘满向量操作;
(4.4)第bid号线程块中,每个线程负责一个矩阵的第bid行乘满向量,具体步骤如下:
1)读取当前行以及下一行的第一个非零元的索引CSR_Row[bid]和CSR_Row[bid+1],定义变量j=CSR_Row[bid];
2)判断j是否小于CSR_Row[bid+1],否则线程结束执行;
3)读取当前列CSR_Col[j],并把它赋值给变量cur_col;
4)更新结果满向量bt的bid号元素值bt[bid]+=CSR_Valt[j]×xt[cur_col];
5)j=j+1,返回2)。
2.根据权利要求1所述的GPU加速的批处理同构稀疏矩阵乘满向量的处理方法,其特征在于:所述步骤(2)中,其所需数据包括:稀疏矩阵的维数n,批处理的矩阵数量bs,稀疏结构数组CSR_Row和CSR_Col,稀疏矩阵数值数组CSR_Val1~CSR_Valbs,被乘满向量x1~xbs,结果满向量b1~bbs。
3.根据权利要求1所述的GPU加速的批处理同构稀疏矩阵乘满向量的处理方法,其特征在于:所述步骤(3)中,所述数值数组CSR_Val1~CSR_Valbs、被乘满向量x1~xbs、结果满向量b1~bbs的存储区域均为bs行的矩阵,并对三个矩阵进行转置操作,以实现合并访问。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610814518.8A CN106407158B (zh) | 2016-09-12 | 2016-09-12 | 一种gpu加速的批处理同构稀疏矩阵乘满向量的处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610814518.8A CN106407158B (zh) | 2016-09-12 | 2016-09-12 | 一种gpu加速的批处理同构稀疏矩阵乘满向量的处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106407158A CN106407158A (zh) | 2017-02-15 |
CN106407158B true CN106407158B (zh) | 2019-01-29 |
Family
ID=57999235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610814518.8A Active CN106407158B (zh) | 2016-09-12 | 2016-09-12 | 一种gpu加速的批处理同构稀疏矩阵乘满向量的处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106407158B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122245B (zh) * | 2017-04-25 | 2019-06-04 | 上海交通大学 | Gpu任务调度方法及系统 |
CN107368368A (zh) * | 2017-06-22 | 2017-11-21 | 东南大学 | 一种大量同构稀疏上三角方程组的gpu加速回代方法 |
US10747844B2 (en) * | 2017-12-12 | 2020-08-18 | Tesla, Inc. | Systems and methods for converting a matrix input to a vectorized input for a matrix processor |
US20200151571A1 (en) * | 2018-11-14 | 2020-05-14 | Nvidia Corporation | Transposed sparse matrix multiply by dense matrix for neural network training |
CN109597691A (zh) * | 2018-12-03 | 2019-04-09 | 东南大学 | 一种大型稀疏矩阵乘以其转置矩阵的gpu加速方法 |
CN111796796B (zh) * | 2020-06-12 | 2022-11-11 | 杭州云象网络技术有限公司 | 基于稀疏矩阵乘法的fpga存储方法、计算方法、模块和fpga板 |
CN113360188B (zh) * | 2021-05-18 | 2023-10-31 | 中国石油大学(北京) | 一种用于优化稀疏矩阵-向量乘的并行处理方法及装置 |
CN113377534A (zh) * | 2021-06-08 | 2021-09-10 | 东南大学 | 一种基于csr格式的高性能稀疏矩阵向量乘法计算方法 |
CN114491404B (zh) * | 2022-01-28 | 2022-12-06 | 北京理工大学 | 应用于计算设备的混合精度SpMV优化系统及方法 |
CN117311948B (zh) * | 2023-11-27 | 2024-03-19 | 湖南迈曦软件有限责任公司 | Cpu与gpu异构并行的自动多重子结构数据处理方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102436438A (zh) * | 2011-12-13 | 2012-05-02 | 华中科技大学 | 基于gpu的稀疏矩阵数据存储方法 |
US8364739B2 (en) * | 2009-09-30 | 2013-01-29 | International Business Machines Corporation | Sparse matrix-vector multiplication on graphics processor units |
CN103336758A (zh) * | 2013-06-29 | 2013-10-02 | 中国科学院软件研究所 | 一种稀疏矩阵的存储方法CSRL及基于该方法的SpMV实现方法 |
CN103984527A (zh) * | 2014-04-01 | 2014-08-13 | 杭州电子科技大学 | 优化稀疏矩阵向量乘提升不可压缩管流模拟效率的方法 |
CN105068787A (zh) * | 2015-08-28 | 2015-11-18 | 华南理工大学 | 一种稀疏矩阵向量乘法的异构并行计算方法 |
CN105593843A (zh) * | 2013-08-30 | 2016-05-18 | 微软技术许可有限责任公司 | 稀疏矩阵数据结构 |
-
2016
- 2016-09-12 CN CN201610814518.8A patent/CN106407158B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8364739B2 (en) * | 2009-09-30 | 2013-01-29 | International Business Machines Corporation | Sparse matrix-vector multiplication on graphics processor units |
CN102436438A (zh) * | 2011-12-13 | 2012-05-02 | 华中科技大学 | 基于gpu的稀疏矩阵数据存储方法 |
CN103336758A (zh) * | 2013-06-29 | 2013-10-02 | 中国科学院软件研究所 | 一种稀疏矩阵的存储方法CSRL及基于该方法的SpMV实现方法 |
CN105593843A (zh) * | 2013-08-30 | 2016-05-18 | 微软技术许可有限责任公司 | 稀疏矩阵数据结构 |
CN103984527A (zh) * | 2014-04-01 | 2014-08-13 | 杭州电子科技大学 | 优化稀疏矩阵向量乘提升不可压缩管流模拟效率的方法 |
CN105068787A (zh) * | 2015-08-28 | 2015-11-18 | 华南理工大学 | 一种稀疏矩阵向量乘法的异构并行计算方法 |
Non-Patent Citations (2)
Title |
---|
Optimizing sparse matrix-vector multiplication on GPUs;Markus Steinberger,et al.;《IBM Research Report》;20081208;第1-10页 |
基于GPU的高性能遥感图像解码方法研究;宋长贺;《中国博士学位论文全文数据库 信息科技辑(月刊)》;20160315(第03期);第I140-108页 |
Also Published As
Publication number | Publication date |
---|---|
CN106407158A (zh) | 2017-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106407158B (zh) | 一种gpu加速的批处理同构稀疏矩阵乘满向量的处理方法 | |
CN106157176A (zh) | 一种gpu加速的电力潮流雅可比矩阵的lu分解方法 | |
CN105391057A (zh) | 一种电力潮流雅克比阵计算的gpu线程设计方法 | |
CN103020853A (zh) | 一种短期交易计划安全校核的方法 | |
CN106026107B (zh) | 一种gpu加速的电力潮流雅可比矩阵的qr分解方法 | |
CN103488610B (zh) | 一种基于稀疏存储的非零元遍历的电网网络方程求解方法 | |
Liu et al. | Probabilistic steady-state and dynamic security assessment of power transmission system | |
Lin et al. | Scenario generation and reduction methods for power flow examination of transmission expansion planning | |
CN106354479B (zh) | 一种大量同构稀疏矩阵的gpu加速qr分解方法 | |
Khare et al. | Optimal PMU placement using matrix modification based integer linear programming | |
He et al. | Power system frequency situation prediction method based on transfer learning | |
CN106296469A (zh) | 一种n‑1故障潮流修正方程组的预处理子优化选择方法 | |
CN105046583A (zh) | 一种适用于分布式实时数据处理的电网模型分区方法 | |
Duan et al. | High performance computing (hpc) for advanced power system studies | |
Shang et al. | GPU-accelerated batch solution for short-circuit current calculation of large-scale power systems | |
Liu et al. | Reliability evaluation of distribution network power supply based on improved sampling monte carlo method | |
Tang et al. | Fpga-based real-time simulation for multiple energy storage systems | |
Li et al. | Probabilistic load flow computation in power system including wind farms with correlated parameters | |
CN112769124A (zh) | 一种基于潮流转移和追踪的电力系统快速运行风险评估方法 | |
Zhu et al. | Frequency Stability Control Method of AC/DC Power System Based on Convolutional Neural Network | |
CN107368368A (zh) | 一种大量同构稀疏上三角方程组的gpu加速回代方法 | |
Xu et al. | Intelligent Commutation Strategy Based on Improved Discrete Particle Swarm Optimization | |
Wang et al. | Power System Transient Stability Assessment and Key Bus Set Selection Based on Multiple-agent Cooperation | |
Zhang et al. | Efficiency enhancement method without grid partitioning for hard real‐time transient simulation of large power grids | |
CN111799781B (zh) | 一种电力系统分析及处理的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 210009 No. 87 Dingjiaqiao, Gulou District, Nanjing City, Jiangsu Province Applicant after: Southeast University Address before: No. 2, four archway in Xuanwu District, Nanjing, Jiangsu Applicant before: Southeast University |
|
GR01 | Patent grant | ||
GR01 | Patent grant |