CN111553126A - 一种基于机器学习训练模型获取矩阵分解时间的方法 - Google Patents

一种基于机器学习训练模型获取矩阵分解时间的方法 Download PDF

Info

Publication number
CN111553126A
CN111553126A CN202010381151.1A CN202010381151A CN111553126A CN 111553126 A CN111553126 A CN 111553126A CN 202010381151 A CN202010381151 A CN 202010381151A CN 111553126 A CN111553126 A CN 111553126A
Authority
CN
China
Prior art keywords
matrix decomposition
model
decomposition time
machine learning
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010381151.1A
Other languages
English (en)
Other versions
CN111553126B (zh
Inventor
田小康
程明厚
阳杰
周振亚
刘强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huada Empyrean Software Co Ltd
Original Assignee
Huada Empyrean Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huada Empyrean Software Co Ltd filed Critical Huada Empyrean Software Co Ltd
Priority to CN202010381151.1A priority Critical patent/CN111553126B/zh
Publication of CN111553126A publication Critical patent/CN111553126A/zh
Application granted granted Critical
Publication of CN111553126B publication Critical patent/CN111553126B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • G06F30/398Design verification or optimisation, e.g. using design rule check [DRC], layout versus schematics [LVS] or finite element methods [FEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种基于机器学习训练模型获取矩阵分解时间的方法,包括以下步骤:1)获取电路矩阵数据集;2)根据所述数据集进行矩阵分解时间模型训练;3)根据训练得到的矩阵分解时间模型,预测未知电路的矩阵分解时间。本发明的基于机器学习训练模型获取矩阵分解时间的方法,能够预估出矩阵分解时间,合理分配计算资源,缩短电路仿真时间,提升电路仿真效率。

Description

一种基于机器学习训练模型获取矩阵分解时间的方法
技术领域
本发明涉及EDA电路仿真技术领域,特别是涉及电路仿真中预测电路矩阵分解时间的方法。
背景技术
随着集成电路集成度增高,电路复杂度也在与日俱增,在现有集成电路计算机辅助设计( Integrated Circuit/Computer Aided Design )中,采用通用的电路模拟程序分析,对于超大规模集成电路,需要耗费大量的机时,尤其是在进行瞬态分析时需要进行多次迭代来分解电路矩阵,使得仿真工具计算量也会爆炸式增长。当前超大规模集成电路所面临的计算量过大,计算资源分配不均衡,以至于仿真时间过长等问题也严重影响了设计者的设计周期。
由于电路矩阵分解需要迭代多次,需要耗费大量的计算资源,但是在电路仿真之前,并不能够知道到底需要多少计算资源,往往导致计算资源分配不均衡,造成仿真时间过长和计算资源的浪费。
发明内容
为了解决现有技术存在的不足,本发明的目的在于提供一种基于机器学习训练模型获取矩阵分解时间的方法,利用训练得到的矩阵分解时间模型,预估出矩阵分解时间,合理分配计算资源,缩短电路仿真时间,提升电路仿真效率。
为实现上述目的,本发明提供的基于机器学习训练模型获取矩阵分解时间的方法,包括以下步骤:
1)获取电路矩阵数据集;
2)根据所述数据集进行矩阵分解时间模型训练;
3)根据训练得到的矩阵分解时间模型,预测未知电路的矩阵分解时间。
进一步地,所述步骤1)进一步包括,
获取电路矩阵的维数、非零元和矩阵分解计算次数数据;
去除所述数据中的异常值和重复值。
进一步地,所述步骤2)进一步包括,
将所述数据集导入机器学习模型的样本空间;
根据机器学习的回归算法训练得出矩阵分解时间模型。
进一步地,所述根据机器学习的回归算法训练得出矩阵分解时间模型的步骤,还包括,更换机器学习模型或更改模型参数,重新训练所述矩阵分解时间模型。
进一步地,还包括,根据回归模型评价指标评价训练的所述矩阵分解时间模型,记录所述矩阵分解时间模型的评价性能和预测结果,根据评价选择最优矩阵分解时间模型。
进一步地,所述回归模型评价指标包括评价绝对误差和评价均方误差。
进一步地,所述评价绝对误差和所述评价均方误差的数值越小则所述矩阵分解时间模型拟合度越高。
进一步地,所述步骤3)进一步包括,
将所述矩阵分解时间模型嵌入电路仿真;
获取所述未知电路的矩阵维数、非零元和矩阵分解计算次数数据;
调用所述矩阵分解时间模型并输入所述未知电路数据;
输出预测的所述未知电路矩阵分解时间。
为实现上述目的,本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序运行时执行如上文所述的基于机器学习训练模型获取矩阵分解时间的方法步骤。
为实现上述目的,本发明还提供一种基于机器学习训练模型获取矩阵分解时间的装置,包括存储器和处理器,所述存储器上储存有在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序时执行如上文所述的基于机器学习训练模型获取矩阵分解时间的方法步骤。
本发明的基于机器学习训练模型获取矩阵分解时间的方法,具有以下有益效果:
1)提供了一种衡量电路矩阵复杂度的指标,来预判电路的复杂度。
2)预估出矩阵分解时间,进一步合理分配计算资源,缩短电路仿真时间,提升电路仿真效率。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,并与本发明的实施例一起,用于解释本发明,并不构成对本发明的限制。在附图中:
图1为根据本发明的基于机器学习训练模型获取矩阵分解时间的方法流程图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
图1为根据本发明的基于机器学习训练模型获取矩阵分解时间的方法流程图,下面将参考图1,对本发明的基于机器学习训练模型获取矩阵分解时间的方法进行详细描述。
首先,在步骤101,测量电路数据。
本发明实施例中,对电路矩阵进行测量,获取电路矩阵的维数、非零元、矩阵计算次数等数据。
在步骤102,处理测量数据得到数据集。
本发明实施例中,去除实测数据的重复值和异常值,整理得到数据集。
在步骤103,对数据集进行机器学习模型训练。
本发明实施例中,将训练样本导入到机器学习模型的样本空间,通过机器学习的回归算法训练得出矩阵分解时间。
在步骤104,评价训练模型,记录模型的评价性能和预测结果。
本发明实施例中,对训练得到的模型进行评价,记录当前模型的评价性能和预测结果,用于最终选择最优的模型。
在步骤105,判断是否存在可更换的模型或可更改的模型参数,若是则更换机器学习模型或更改模型参数,跳至步骤103进行重新训练模型;若否则进行步骤106。该步骤中,当利用多种常用回归模型进行以及各个模型都进行了模型参数调整,再无可选择的模型和模型参数之后,可以进行步骤106。
在步骤106,结束模型训练,保存最优模型。
本发明实施例中,通过回归模型评价指标:MAE(评价绝对误差)、MSE(评价均方误差)等数值大小来评价最优模型。该步骤中,MAE(评价绝对误差)、MSE(评价均方误差)等数值越小说明拟合效果越好。
本发明实施例中,结束模型训练,将得到的最优模型保存下来,预测时直接调用模型即可。
本发明实施例中,利用训练得到的矩阵分解时间模型,预测未知的电路矩阵所需要分解的时间。该步骤中,将最优模型嵌入到电路仿真软件(ALPS)中,在电路仿真过程中,将电路矩阵维数、非零元和矩阵分解次数等特征数据保存为一定数据格式,该数据作为模型的输入,调用模型,即可得到模型预测的电路矩阵所需要分解的时间,该预测分解时间作为模型的输出。
本发明提出一种基于机器学习训练模型获取矩阵分解时间的方法,对于现有技术中由于电路矩阵分解需要迭代多次,需要耗费大量的计算资源,但是在电路仿真之前,并不能够知道到底需要多少计算资源,往往导致计算资源分配不均衡,造成仿真时间过长和计算资源的浪费。提出一种基于机器学习训练模型获取矩阵分解时间的方法,从而预估出矩阵分解时间,进一步合理分配计算资源,缩短电路仿真时间,提升电路仿真效率。
为实现上述目的,本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序运行时执行如上文所述的基于机器学习训练模型获取矩阵分解时间的方法步骤。
为实现上述目的,本发明还提供一种基于机器学习训练模型获取矩阵分解时间的设备,包括存储器和处理器,所述存储器上储存有在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序时执行如上文所述的基于机器学习训练模型获取矩阵分解时间的方法步骤。
本领域普通技术人员可以理解:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于机器学习训练模型获取矩阵分解时间的方法,其特征在于,包括以下步骤:
1)获取电路矩阵数据集;
2)根据所述数据集进行矩阵分解时间模型训练;
3)根据训练得到的矩阵分解时间模型,预测未知电路的矩阵分解时间。
2.根据权利要求1所述的基于机器学习训练模型获取矩阵分解时间的方法,其特征在于,所述步骤1)进一步包括,
获取电路矩阵的维数、非零元和矩阵分解计算次数数据;
去除所述数据中的异常值和重复值。
3.根据权利要求1所述的基于机器学习训练模型获取矩阵分解时间的方法,其特征在于,所述步骤2)进一步包括,
将所述数据集导入机器学习模型的样本空间;
根据机器学习的回归算法训练得出矩阵分解时间模型。
4.根据权利要求3所述的基于机器学习训练模型获取矩阵分解时间的方法,其特征在于,所述根据机器学习的回归算法训练得出矩阵分解时间模型的步骤,还包括,更换机器学习模型或更改模型参数,重新训练所述矩阵分解时间模型。
5.根据权利要求4所述的基于机器学习训练模型获取矩阵分解时间的方法,其特征在于,还包括,根据回归模型评价指标评价训练的所述矩阵分解时间模型,记录所述矩阵分解时间模型的评价性能和预测结果,根据评价选择最优矩阵分解时间模型。
6.根据权利要求5所述的基于机器学习训练模型获取矩阵分解时间的方法,其特征在于,所述回归模型评价指标包括评价绝对误差和评价均方误差。
7.根据权利要求6所述的基于机器学习训练模型获取矩阵分解时间的方法,其特征在于,所述评价绝对误差和所述评价均方误差的数值越小则所述矩阵分解时间模型拟合度越高。
8.根据权利要求1所述的基于机器学习训练模型获取矩阵分解时间的方法,其特征在于,所述步骤3)进一步包括,
将所述矩阵分解时间模型嵌入电路仿真;
获取所述未知电路的矩阵维数、非零元和矩阵分解计算次数数据;
调用所述矩阵分解时间模型并输入所述未知电路数据;
输出预测的所述未知电路矩阵分解时间。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序运行时执行权利要求1至8任一项所述的基于机器学习训练模型获取矩阵分解时间的方法步骤。
10.一种基于机器学习训练模型获取矩阵分解时间的装置,其特征在于,包括存储器和处理器,所述存储器上储存有在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序时执行权利要求1至8任一项所述的基于机器学习训练模型获取矩阵分解时间的方法步骤。
CN202010381151.1A 2020-05-08 2020-05-08 一种基于机器学习训练模型获取矩阵分解时间的方法 Active CN111553126B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010381151.1A CN111553126B (zh) 2020-05-08 2020-05-08 一种基于机器学习训练模型获取矩阵分解时间的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010381151.1A CN111553126B (zh) 2020-05-08 2020-05-08 一种基于机器学习训练模型获取矩阵分解时间的方法

Publications (2)

Publication Number Publication Date
CN111553126A true CN111553126A (zh) 2020-08-18
CN111553126B CN111553126B (zh) 2022-05-24

Family

ID=72007974

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010381151.1A Active CN111553126B (zh) 2020-05-08 2020-05-08 一种基于机器学习训练模型获取矩阵分解时间的方法

Country Status (1)

Country Link
CN (1) CN111553126B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6031979A (en) * 1996-05-30 2000-02-29 Nec Corporation Circuit partitioning apparatus for executing parallel circuit simulation and method therefor
CN102081690A (zh) * 2010-12-30 2011-06-01 南京理工大学 复杂电路的矩阵分解结合新奇异值分解方法
CN102142052A (zh) * 2011-03-28 2011-08-03 清华大学 一种针对电路仿真中电路稀疏矩阵的快速lu分解方法
US20110238720A1 (en) * 2010-03-25 2011-09-29 Altera Corporation Solving linear matrices in an integrated circuit device
CN103399841A (zh) * 2013-07-31 2013-11-20 清华大学 基于gpu的稀疏矩阵lu分解方法
CN105144625A (zh) * 2013-08-09 2015-12-09 汤姆逊许可公司 隐私保护矩阵因子分解的方法和系统
US20190121350A1 (en) * 2016-05-09 2019-04-25 Strong Force Iot Portfolio 2016, Llc Systems and methods for learning data patterns predictive of an outcome
CN109902832A (zh) * 2018-11-28 2019-06-18 华为技术有限公司 机器学习模型的训练方法、异常预测方法及相关装置
US20190354894A1 (en) * 2018-05-15 2019-11-21 Lightmatter, Inc Systems And Methods For Training Matrix-Based Differentiable Programs

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6031979A (en) * 1996-05-30 2000-02-29 Nec Corporation Circuit partitioning apparatus for executing parallel circuit simulation and method therefor
US20110238720A1 (en) * 2010-03-25 2011-09-29 Altera Corporation Solving linear matrices in an integrated circuit device
CN102081690A (zh) * 2010-12-30 2011-06-01 南京理工大学 复杂电路的矩阵分解结合新奇异值分解方法
CN102142052A (zh) * 2011-03-28 2011-08-03 清华大学 一种针对电路仿真中电路稀疏矩阵的快速lu分解方法
CN103399841A (zh) * 2013-07-31 2013-11-20 清华大学 基于gpu的稀疏矩阵lu分解方法
CN105144625A (zh) * 2013-08-09 2015-12-09 汤姆逊许可公司 隐私保护矩阵因子分解的方法和系统
US20190121350A1 (en) * 2016-05-09 2019-04-25 Strong Force Iot Portfolio 2016, Llc Systems and methods for learning data patterns predictive of an outcome
US20190354894A1 (en) * 2018-05-15 2019-11-21 Lightmatter, Inc Systems And Methods For Training Matrix-Based Differentiable Programs
CN109902832A (zh) * 2018-11-28 2019-06-18 华为技术有限公司 机器学习模型的训练方法、异常预测方法及相关装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
MARIA SCHULD,ETC: "Prediction by linear regression on a quantum computer", 《PHYSICAL REVIEW》 *
PEIGUANG JING,ETC: "A Framework of Joint Low-Rank and Sparse Regression for Image Memorability Prediction", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 *
XIAOMING CHEN,ETC: "NICSLU:An Adaptive Sparse Matrix Solver for Parallel Circuit Simulation", 《IEEE TRANSACTIONS ON COMPUTER-AIDED DESIGN OF INTEGRATED CIRCUITS AND SYSTEMS》 *
曹政,张永明: "基于FPGA的LU分解算法对电路的快速测算", 《电子设计工程》 *
邬贵明: "FPGA矩阵计算并行算法与结构", 《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》 *
骆少衡: "系统级电源噪声分析及规划", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Also Published As

Publication number Publication date
CN111553126B (zh) 2022-05-24

Similar Documents

Publication Publication Date Title
EP2118707B1 (en) Multidimensional process corner derivation using surrogate based simulataneous yield analysis
US20080059922A1 (en) Graph Pruning Scheme for Sensitivity Analysis with Partitions
CN112232019B (zh) 一种逻辑资源评估方法
CN110377472B (zh) 定位芯片运行错误的方法及装置
US20220067255A1 (en) Dynamic current modeling in dynamic voltage drop analysis
CN114840375B (zh) 一种半导体存储产品的老化性能测试方法及系统
US20070180411A1 (en) Method and apparatus for comparing semiconductor-related technical systems characterized by statistical data
CN112765916A (zh) 集成电路后仿真参数网表的生成方法
Kurek et al. Knowledge transfer in automatic optimisation of reconfigurable designs
Richa et al. High-level power estimation techniques in embedded systems hardware: an overview
CN113642209B (zh) 基于数字孪生的结构植入故障响应数据获取及评判方法
CN111553126B (zh) 一种基于机器学习训练模型获取矩阵分解时间的方法
CN112783747B (zh) 一种应用程序的执行时间预测方法及装置
CN113766983A (zh) 用于增材制造部件的疲劳寿命预测的机器学习方法
CN114117873A (zh) 基于重要性采样代理模型的复杂装备时变可靠性分析方法
CN116777861B (zh) 一种激光雕刻机打标质量检测方法及系统
TW201218008A (en) Intelligent architecture creator
CN110991130B (zh) 一种利用电路仿真检查标准单元时序库的方法
CN117217136A (zh) 一种基于rtl设计的fpga资源消耗估计方法
CN112712181A (zh) 模型构建优化方法、装置、设备和可读存储介质
CN115248783B (zh) 软件测试方法、系统、可读存储介质及计算机设备
CN109743200B (zh) 基于资源特征的云计算平台计算任务成本预测方法及系统
US11790139B1 (en) Predicting a performance metric based on features of a circuit design and explaining marginal contributions of the features to the prediction
CN115775037A (zh) 诊断模型的自动优化方法及自动优化系统
CN115271277A (zh) 电力设备画像构建方法、系统、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100102 floor 2, block a, No.2, lizezhong 2nd Road, Chaoyang District, Beijing

Applicant after: Beijing Huada Jiutian Technology Co.,Ltd.

Address before: 100102 floor 2, block a, No.2, lizezhong 2nd Road, Chaoyang District, Beijing

Applicant before: HUADA EMPYREAN SOFTWARE Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant