CN113408226B9 - 一种基于深度学习的芯片供电网络凸块电流估算方法及系统 - Google Patents

一种基于深度学习的芯片供电网络凸块电流估算方法及系统 Download PDF

Info

Publication number
CN113408226B9
CN113408226B9 CN202110505699.7A CN202110505699A CN113408226B9 CN 113408226 B9 CN113408226 B9 CN 113408226B9 CN 202110505699 A CN202110505699 A CN 202110505699A CN 113408226 B9 CN113408226 B9 CN 113408226B9
Authority
CN
China
Prior art keywords
bump
current
neural network
layer
power supply
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110505699.7A
Other languages
English (en)
Other versions
CN113408226B (zh
CN113408226A (zh
Inventor
卓成
陈宇飞
温晨怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110505699.7A priority Critical patent/CN113408226B9/zh
Publication of CN113408226A publication Critical patent/CN113408226A/zh
Application granted granted Critical
Publication of CN113408226B publication Critical patent/CN113408226B/zh
Publication of CN113408226B9 publication Critical patent/CN113408226B9/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/32Circuit design at the digital level
    • G06F30/33Design verification, e.g. functional simulation or model checking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Supply And Distribution Of Alternating Current (AREA)

Abstract

本发明公开了一种基于深度学习的芯片供电网络凸块电流估算方法及系统,包括:生成不同底层电流激励和不同去耦电容密度和区域的电源网;通过数据增强的方式构造多样化的训练数据;构建轻量级卷积神经网络并利用之前构造的数据集进行训练获得训练模型;利用训练好的模型,针对不同的激励进行Bump电流分布快速评估。该方法通过针对不同的电源网训练Bump电流分布模型,对电路在工程变更顺序(ECO)阶段的查看每次变换结果具有重要意义。

Description

一种基于深度学习的芯片供电网络凸块电流估算方法及系统
技术领域
本发明设计电路验证、电源完整性分析、电路功耗分析等工程技术领域,特别涉及一种 基于深度学习的芯片供电网络凸块电流估算方法及系统。
背景技术
随着超大规模集成电路工艺的发展,芯片工作电压越来越低,但是电流密度却越来越高。 这导致系统的噪声容限越来越低,从而对电源系统在整个工作频段内的稳定性提出了更高的 要求。电源完整性对系统可靠性、信噪比与误码率、EMI/EMC等电路设计中重要指标有着越 来越重要的影响。因此,先进工艺的集成电路设计通常对电源完整性具有很严格的指标以确 保电路的稳定性。在电源完整性设计中,设计者通常需要对设计缺陷进行迭代式的修改来保 证最终设计能够满足所有的设计指标,这促使了ECO设计流程的出现。
ECO是近年来兴起的一种新型超大规模集成电路的设计流程。设计者仅对产品进行局部 修改(5%-10%),以纠正功能性错误或满足非功能性设计要求(例如时序和功率)。这种对当 前设计进行最小化改变的思想,可以尽可能节省设计成本和设计时间,因此被广泛地运用于 降低设计复杂性和缩短设计周期的工作中。
当底层IP设计改变时,设计者希望在产品迭代过程中快速确定这种改变对顶层造成影响 的分布情况,所以在物理设计阶段需要对电路进行多次仿真,导致此阶段是整个电路设计流 程中最耗时的部分。因此,提升ECO阶段对每个修改版本的仿真速度对缩短整个设计周期具 有至关重要的作用。ECO设计流程中产生的修改版本与原始版本具有较大的相似性,所以通 过引入原始版本的仿真信息,可以降低每个修改版本的仿真时间,提升设计效率。
然而目前主流EDA工具并没有考虑到ECO版本之间的相似性而进行优化。主流EDA软件 仍将修改版本看作一个新的设计,从零开始进行一次新的仿真。显然,尽管这种方法能保证 仿真的准确性,却忽视了仿真的时间成本。产品设计者更希望在他们迭代设计期间,EDA软 件能尽可能的利用ECO设计确定的不变信息,针对产品的局部改变,以略微降低仿真精度作 为代价,换取仿真时间大幅减少作为回报,确定设计改变所造成的变化。
综上,提供一种基于深度学习的芯片供电网络凸块电流估算方法及系统,充分利用ECO 原始版本与修改版之间的相似性,是提高仿真速度,缩短设计周期的关键。
发明内容
本发明的目的在于针对目前EDA软件在ECO阶段仿真速度的现有技术的不足,提供一 种基于深度学习的芯片供电网络凸块电流估算方法及系统。在进行电源完整性测试时,本方 法可以快速且准确地对ECO阶段的每个修改版本进行仿真,得到在Bump端口对于当前输入 电流源的响应。
本发明的目的是通过以下技术方案来实现的:一种基于深度学习的芯片供电网络凸块电 流估算方法,该方法包括以下步骤:
(1)生成不同底层电流激励和不同去耦电容密度和位置的电源网,作为神经网络训练样 本;
(2)利用电源网的线性均匀性和叠加性,扩充步骤(1)中生成的训练样本,实现数据 增强。
(3)构建卷积神经网络,其输入为以二位矩阵形式表示的电流激励的分布,其输出为以 一维向量形式表示的Bump电流响应。并通过步骤(2)得到的最终的神经网络训练集训练构 建的神经网络;
(4)通过训练完的卷积神经网络计算静态场景下Bump的时域电流响应。
进一步地,步骤(1)中,提取Bump和电流源的位置后进行分组,并去除每组中超过阈 值数量的端口,所述阈值根据需求的计算速度和硬件处理能力选取,并且可随机化添加底层 电流激励大小和随机化添加去耦电容密度和位置并生成对应的电源网仿真文件。
进一步地,步骤(2)具体为:获取神经网络的训练数据,并对不同的训练数据随机赋予 不同权重后进行线性组合,从而生成新的训练数据以实现数据增强。具体来说,由于电源网 系统是线性时不变系统,所以其满足叠加性。当不同的底层电流激励线性叠加时,底层各个 Bump端的电流也满足以下线性叠加关系:
式中,Isource代表电流激励的分布,Ibump表示Bump电流响应,表示二者之间的对应 关系,k代表常数项系数,Isource,a和Isource,b分别代表a与b两种情况下的电流激励分布,Ibump,a 和Ibump,b分别代表a与b两种情况下的Bump电流响应。
进一步地,步骤(3)具体为:构建的卷积神经网络有六层结构,第1-4层包括依次连接 的一个卷积层、一个批标准化操作单元、一个LeakyRelu激活层和一个池化层;第五层是一 个全连接层进行非线性变换;最后连接一个输出层。
进一步地,损失函数采用L1Loss,PeakLoss和ZeroConstraint的线性组合构成,计算公 式为:
Loss=L1Loss+α*PeakLoss+β*ZeroConstraint
PeakLoss=(Ti-Pk)2+(Tj-Pl)2+|(k-i)(Ti-Pi)(Tk-Pk)|+|(l-j)(Tj-Pj)(Tl-Pl)|
Ti=max(target),Tj=min(target),Pk=max(prediction),Pl=min(prediction)
ZeroConstraint=sum(prediction)
式中,Loss代表训练使用的总损失函数,L1loss表示每个预测值和实际值之间的绝对值 误差,n表示预测值的长度即Bump的数量,i表示预测值向量的的第i个值,PeakLoss表示 测试数据预测值的最大最小值和标签之间的误差,α表示PeakLoss在总损失函数中的权重, ZeroConstraint表示预测值总和与0之间的误差,β表示ZeroConstraint在总损失函数中的权重, Ti表示标签的最大值,Tj表示标签的最小值,Pk表示预测值的最大值,Pl表示预测值的最 小值,target表示标签,prediction表示预测值。
本发明还提供了一种基于深度学习的芯片供电网络凸块电流估算系统,该系统包含电源 网生成模块、训练数据获取模块、轻量级卷积神经网络模块和Bump电流计算模块。
所述电源网生成模块用于生成不同底层电流激励和不同去耦电容密度和位置的电源网, 作为神经网络训练样本。
所述训练数据获取模块用于利用电源网的线性均匀性和叠加性,扩充步骤(1)中生成的 训练样本,实现数据增强。
所述卷积神经网络模块用于构建卷积神经网络,其输入为以二位矩阵形式表示的电流激 励的分布,其输出为以一维向量形式表示的Bump电流响应。并通过步骤(2)得到的最终的 神经网络训练集训练构建的神经网络;
所述Bump电流计算模块通过训练完的卷积神经网络计算静态场景下Bump的时域电流响应。
进一步地,所述电源网生成模块提取Bump和电流源的位置后进行分组,并去除每组中 超过阈值数量的端口,所述阈值根据需求的计算速度和硬件处理能力选取,并且可随机化添 加底层电流激励大小和随机化添加去耦电容密度和位置并生成对应的电源网仿真文件。
进一步地,所述训练数据获取模块获取神经网络的训练数据,并对不同的训练数据随机 赋予不同权重后进行线性组合,从而生成新的训练数据以实现数据增强。具体来说,由于电 源网系统是线性时不变系统,所以其满足叠加性。当不同的底层电流激励线性叠加时,底层 各个Bump端的电流也满足线性叠加关系:
式中,Isource代表电流激励的分布,Ibump表示Bump电流响应,表示二者之间的对应 关系,k代表常数项系数,Isource,a和Isource,b分别代表a与b两种情况下的电流激励分布,Ibump,a 和Ibump,b分别代表a与b两种情况下的Bump电流响应。
进一步地,所述卷积神经网络模块构建的神经网络有六层结构,第1-4层包括依次连接 的一个卷积层、一个批标准化操作单元、一个LeakyRelu激活层和一个池化层;第五层是一 个全连接层进行非线性变换,最后连接一个输出层。
进一步地,卷积神经网络模块构建的神经网络损失函数采用L1Loss,PeakLoss和 ZeroConstraint的线性组合构成,计算公式为:
Loss=L1Loss+α*PeakLoss+β*ZeroConstraint
PeakLoss=(Ti-Pk)2+(Tj-Pl)2+|(k-i)(Ti-Pi)(Tk-Pk)|+|(l-j)(Tj-Pj)(Tl-Pl)|
Ti=max(target),Tj=min(target),Pk=max(prediction),Pl=min(prediction)
ZeroConstraint=sum(prediction)
式中,Loss代表训练使用的总损失函数,L1loss表示每个预测值和实际值之间的绝对值 误差,n表示预测值的长度即Bump的数量,i表示预测值向量的的第i个值,PeakLoss表示 测试数据预测值的最大最小值和标签之间的误差,α表示PeakLoss在总损失函数中的权重, ZeroConstraint表示预测值总和与0之间的误差,β表示ZeroConstraint在总损失函数中的权重, Ti表示标签的最大值,Tj表示标签的最小值,Pk表示预测值的最大值,Pl表示预测值的最 小值,target表示标签,prediction表示预测值。
本发明的有益效果:本发明能够快速地提取电源网的特征,并能精确地根据电流激励的 分布预测出Bump电流响应,预测结果与常用商业软件结果的误差小于1%。本发明合理使用 了数据增强方法,在保证准确率相近的情况下,大大降低了采集数据所需的成本。同时,本 发明的计算速度可达常用商业软件的数十倍。
附图说明
图1是本发明一个实施例的一种基于深度学习的芯片供电网络凸块电流估算方法的结构 框图;
图2是本发明一个实施例的轻量级卷积神经网络构建示意图;
图3是本发明一个在具体场景下本发明预测结果与商业仿真软件计算结果误差的分布图;
图4是本发明一个在具体场景下是否使用数据增强的误差结果对比图。
具体实现方式
下面结合附图和具体实施例对本发明作进一步详细说明。
本发明提供了一种基于深度学习的芯片供电网络凸块电流估算方法,该方法包括以下步 骤:
(1)生成不同底层电流激励和不同去耦电容密度和位置的电源网,作为神经网络训练样 本;提取Bump和电流源的位置后进行分组,并去除每组中超过阈值数量的端口,所述阈值 根据需求的计算速度和硬件处理能力选取,并且可随机化添加底层电流激励大小和随机化添 加去耦电容密度和位置并生成对应的电源网仿真文件。
(2)利用电源网的线性均匀性和叠加性,扩充步骤(1)中生成的训练样本,实现数据 增强。获取神经网络的训练数据,并对不同的训练数据随机赋予不同权重后进行线性组合, 从而生成新的训练数据以实现数据增强。具体来说,由于电源网系统是线性时不变系统,所 以其满足叠加性。当不同的底层电流激励线性叠加时,底层各个Bump端的电流也满足以下 线性叠加关系:
式中,Isource代表电流激励的分布,Ibump表示Bump电流响应,表示二者之间的对应 关系,k代表常数项系数,Isource,a和Isource,b分别代表a与b两种情况下的电流激励分布, Ibump,a和Ibump,b分别代表a与b两种情况下的Bump电流响应。
(3)构建卷积神经网络,其输入为以二位矩阵形式表示的电流激励的分布,其输出为以 一维向量形式表示的Bump电流响应。并通过步骤(2)得到的最终的神经网络训练集训练构 建的神经网络;构建的卷积神经网络有六层结构,第1-4层包括依次连接的一个卷积层、一 个批标准化操作单元、一个LeakyRelu激活层和一个池化层;第五层是一个全连接层进行非 线性变换;最后连接一个输出层。
损失函数采用L1Loss,PeakLoss和ZeroConstraint的线性组合构成,计算公式为:
Loss=L1Loss+α*PeakLoss+β*ZeroConstraint
PeakLoss=(Ti-Pk)2+(Tj-Pl)2+|(k-i)(Ti-Pi)(Tk-Pk)|+|(l-j)(Tj-Pj)(Tl-Pl)|
Ti=max(target),Tj=min(target),Pk=max(prediction),Pl=min(prediction)
ZeroConstraint=sum(prediction)
式中,Loss代表训练使用的总损失函数,L1loss表示每个预测值和实际值之间的绝对值 误差,n表示预测值的长度即Bump的数量,i表示预测值向量的的第i个值,PeakLoss表示 测试数据预测值的最大最小值和标签之间的误差,α表示PeakLoss在总损失函数中的权重, ZeroConstraint表示预测值总和与0之间的误差,β表示ZeroConstraint在总损失函数中的权重, Ti表示标签的最大值,Tj表示标签的最小值,Pk表示预测值的最大值,Pl表示预测值的最 小值,target表示标签,prediction表示预测值。
(4)通过训练完的卷积神经网络计算静态场景下Bump的时域电流响应。
如图1所示,本发明还提供了一种基于深度学习的芯片供电网络凸块电流估算系统,该 系统包含电源网生成模块、训练数据获取模块、轻量级卷积神经网络模块和Bump电流计算 模块。
所述电源网生成模块,用于从设计交换文件中提取电流源和顶层Bump的位置,生成不 同底层激励和不同去耦电容密度和位置的电源网并根据要求自动化生成芯片功耗模型(CPM) 及其过程中所需文件,包括自动化生成顶层约束文件(GSR)、命令行执行文件(TCL)、 各模块静态电流和电容的配置文件、电流源和Bump的位置文件(PLOC)、区域功耗分配文 件(BPA)等。
各模块静态电流和电容的配置文件指明了每个模块的负载电容、特征阻抗、各状态电流 响应等信息,以便于EDA软件生成对应的电流模块。
电流源和Bump位置文件提取于设计交换文件。由于计算能力的限制,CPM的端口数量 不能过多。提取时须先将电流源及Bump分组,每组合并为一对CPM端口。此外,电流源的 数目依然过多,直接计算会导致生成CPM时计算量过大。通过指定每组最大端口数量,筛选 出每组中代表性的端口,可以有效减少CPM计算时间。
区域功耗分配文件是将用户定义的各电流模块、去耦电容模块实际分配到电路的对应位 置。
所述训练数据获取模块,用于生成紧凑卷积神经网络的训练数据。通过将底层看作32*32 的图像,随机地给每个像素分配功耗,并保证总功耗一定。自动生成脚本,利用商业工具静 态仿真,获取顶层各Bump电流输出向量作为标签。商业工具具有较高的准确性,但针对不同 形式的激励电流,则每次都需要对整个电路进行仿真求解。随着电路规模的不断提升,计算 复杂度呈指数级别增长。由于电源网是线性时不变系统,所以输入输出满足可叠加性。通过 不同的线性组合方式,可以使原始的训练数据产生新的训练数据。设计者只需提取少量的原 始训练数据,即可获得大量的符合实际情况的训练样本-标签对:
通过两种方式进行数据增强操作:
1)训练时每次生成数据,有0.5的概率乘以1-2之间的某个值。
2)直接扩展数据集,扩展方法为:当前数据乘0-2之间某个值,生成三个新样本-标签 对;相邻两组数据相加,生成新的一个样本-标签对。
所述轻量级卷积神经网络模块,用于构建紧凑的卷积神经网络,其包含卷积层,批处理 层,池化层,激活层,全连接层和最后的输出层。其有六层结构,第1-4层包括依次连接的 一个卷积层、一个批标准化操作单元、一个LeakyRelu激活层和一个池化层;第五层是一个 全连接层进行非线性变换,全连接层向量的维度依次为4096、768;最后连接一个输出层。 该紧凑的卷积神经网络网络模型中,卷积层操作的计算过程为:
式中,outputconv是每一卷积层输出图像数据的三维大小(图像的长度、宽度和深度), inputconv是输入图像的三维大小,pad表示在图像周围填充像素,kernal为卷积核的三维大 小,stride为卷积核的步长。
对于每一个卷积层使用批标准化操作,加速网络的收敛速度及稳定性,批标准化操作的 公式为:
其中,Input是输入的每个批数据,是归一化数据,Output批标准化操作输出的批 数据,μ和σ分别是每个批数据的均值和方差,γ和β分别是缩放和平移变量,∈是为了增加训 练稳定性而加入的较小的常量数据;
与每个卷积层相连的激活函数选用LeakyRelu函数,可缩短训练周期,LeakyRelu函数的 计算方式为:
Outputactivation=Inputactivation if Inputactivation≥0
Inputactivation/α if Inputactivation<0
其中,Inputactivation是LeakyRelu函数的输入数据,Outputactivation是LeakyRelu函数 的输出数据,α是个固定的参数。
如图2所示,输入图像块的大小为1×32×32,其中32×32代表图像块的长、宽,1代 表图像块的通道数量。经过第1层3×3卷积、批处理和LeakyReLU后,得到的特征大小为 64×32×32,经过2×2池化操作后,得到的特征大小为64×16×16的数据图像。通过相同 的操作,第2-4层的输出图像维度为128×16×16、256×8×8、512×4×4,经过第5层 池化层得到大小为1024×2×2的1024个高维特征并将其传入到全连接层的多层感知机 (MLP)中进行概率回归,全连接层向量的维度依次为1×1×4096、1×1×768和 1×1×1×输出维度,全连接层中间采用dropout层并设置p=0.5,减少网络参数,防止过 拟合。
在模型训练中采用L1Loss,PeakLoss和ZeroConstraint的线性组合构成,计算公式为:
Loss=L1Loss+α×PeakLoss+β×ZeroConstraint
PeakLoss=(Ti-Pk)2+(Tj-Pl)2+|(k-i)(Ti-Pi)(Tk-Pk)|+|(l-j)(Tj-Pj)(Tl-Pl)|
Ti=max(target),Tj=min(target),Pk=max(prediction),Pl=min(prediction)
ZeroConstraint=sum(prediction)
其中L1loss表示每个预测值f(xi)和实际值yi之间的误差,PeakLoss表示测试数据预测值 的最大最小值和实际值之间的误差,ZeroConstraint表示预测值总和与0之间的误差。采用标 准随机梯度下降(SGD)更新权重权重参数θ,其公式为:
其中,η是学习速率,θk是第k次的权重参数。
所述Bump电流计算模块,用于计算静态场景下Bump的时域电流响应,主要包含三个步 骤:(1)确定底层各个电流激励的大小(2)将电流激励输入训练完成后的卷积神经网络(3) 确定Bump各个电流输出值。
本发明能够快速地提取电源网的特征,并能精确地根据电流激励的分布预测出Bump电 流响应,预测结果与常用商业软件结果的误差小于1%。如图3所示,对于一个有70个Bump 的电源网实例,施加500种不同分布电流激励并分别用商业软件和本发明得到计算结果,统 计结果的相对误差,可以看到其误差的平均值小于1%,误差的最大值小于5%。
本发明合理使用了数据增强方法,在保证准确率相近的情况下,大大降低了采集数据所 需的成本。如图4所示,对同一个电源网实例,对照组使用了4500组采集的样本-标签组, 没有使用数据增强;实验组仅使用了50组采集的样本标签组,但电源网的线性均匀性和叠加 性,对不同的训练数据随机赋予不同权重后进行线性组合,从而生成新的训练数据以实现数 据增强,两种方法得到了相似的精度。
本发明的计算速度远远快于商业软件,根据实际测试,其计算速度可达商业软件的数十 倍。
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要 求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。

Claims (8)

1.一种基于深度学习的芯片供电网络凸块电流估算方法,其特征在于,该方法包括以下 步骤:
(1)生成不同底层电流激励和不同去耦电容密度和位置的电源网,作为神经网络训练样 本;
(2)利用电源网的线性均匀性和叠加性,扩充步骤(1)中生成的训练样本,实现数据 增强,具体为:获取神经网络的训练数据,并对不同的训练数据随机赋予不同权重后进行线 性组合,从而生成新的训练数据以实现数据增强;具体来说,由于电源网系统是线性时不变 系统,所以其满足叠加性;当不同的底层电流激励线性叠加时,底层各个Bump端的电流也 满足以下线性叠加关系:
式中,Isource代表电流激励的分布,Ibump表示Bump电流响应,表示二者之间的对应 关系,k代表常数项系数,Isource,a和Isource,b分别代表a与b两种情况下的电流激励分布, Ibump,a和Ibump,b分别代表a与b两种情况下的Bump电流响应;
(3)构建卷积神经网络,其输入为以二位矩阵形式表示的电流激励的分布,其输出为以 一维向量形式表示的Bump电流响应;并通过步骤(2)得到的最终的神经网络训练集训练构 建的神经网络;
(4)通过训练完的卷积神经网络计算静态场景下Bump的时域电流响应。
2.根据权利要求1所述的一种基于深度学习的芯片供电网络凸块电流估算方法,其特征 在于,步骤(1)中,提取Bump和电流源的位置后进行分组,并去除每组中超过阈值数量的 端口,所述阈值根据需求的计算速度和硬件处理能力选取,并且可随机化添加底层电流激励 大小和随机化添加去耦电容密度和位置并生成对应的电源网仿真文件。
3.根据权利要求1所述的一种基于深度学习的芯片供电网络凸块电流估算方法,其特征 在于,步骤(3)具体为:构建的卷积神经网络有六层结构,第1-4层包括依次连接的一个卷 积层、一个批标准化操作单元、一个LeakyRelu激活层和一个池化层;第五层是一个全连接 层进行非线性变换;最后连接一个输出层。
4.根据权利要求1所述的一种基于深度学习的芯片供电网络凸块电流估算方法,其特征 在于,损失函数采用L1Loss,PeakLoss和ZeroConstraint的线性组合构成,计算公式为:
Loss=L1Loss+α*PeakLoss+β*ZeroConstraint
PeakLoss=(Ti-Pk)2+(Tj-Pl)2+|(k-i)(Ti-Pi)(Tk-Pk)|+|(l-j)(Tj-Pj)(Tl-Pl)|
Ti=max(target),Tj=min(target),Pk=max(prediction),Pl=min(prediction)
ZeroConstraint=sum(prediction)
式中,Loss代表训练使用的总损失函数,L1loss表示每个预测值和实际值之间的绝对值 误差,n表示预测值的长度即Bump的数量,i表示预测值向量的的第i个值,PeakLoss表示 测试数据预测值的最大最小值和标签之间的误差,α表示PeakLoss在总损失函数中的权重, ZeroConstraint表示预测值总和与0之间的误差,β表示ZeroConstraint在总损失函数中的权重, Ti表示标签的最大值,Tj表示标签的最小值,Pk表示预测值的最大值,Pl表示预测值的最 小值,target表示标签,prediction表示预测值。
5.一种基于深度学习的芯片供电网络凸块电流估算系统,其特征在于,该系统包含电源 网生成模块、训练数据获取模块、轻量级卷积神经网络模块和Bump电流计算模块;
所述电源网生成模块用于生成不同底层电流激励和不同去耦电容密度和位置的电源网, 作为神经网络训练样本;
所述训练数据获取模块用于利用电源网的线性均匀性和叠加性,扩充步骤(1)中生成的 训练样本,实现数据增强,具体为:所述训练数据获取模块获取神经网络的训练数据,并对 不同的训练数据随机赋予不同权重后进行线性组合,从而生成新的训练数据以实现数据增强; 具体来说,由于电源网系统是线性时不变系统,所以其满足叠加性;当不同的底层电流激励 线性叠加时,底层各个Bump端的电流也满足线性叠加关系:
式中,Isource代表电流激励的分布,Ibump表示Bump电流响应,表示二者之间的对应 关系,k代表常数项系数,Isource,a和Isource,b分别代表a与b两种情况下的电流激励分布, Ibump,a和Ibump,b分别代表a与b两种情况下的Bump电流响应;
所述卷积神经网络模块用于构建卷积神经网络,其输入为以二位矩阵形式表示的电流激 励的分布,其输出为以一维向量形式表示的Bump电流响应;并通过步骤(2)得到的最终的 神经网络训练集训练构建的神经网络;
所述Bump电流计算模块通过训练完的卷积神经网络计算静态场景下Bump的时域电流响应。
6.根据权利要求5所述的一种基于深度学习的芯片供电网络凸块电流估算系统,其特征 在于,所述电源网生成模块提取Bump和电流源的位置后进行分组,并去除每组中超过阈值 数量的端口,所述阈值根据需求的计算速度和硬件处理能力选取,并且可随机化添加底层电 流激励大小和随机化添加去耦电容密度和位置并生成对应的电源网仿真文件。
7.根据权利要求5所述的一种基于深度学习的芯片供电网络凸块电流估算系统,其特征 在于,所述卷积神经网络模块构建的神经网络有六层结构,第1-4层包括依次连接的一个卷 积层、一个批标准化操作单元、一个LeakyRelu激活层和一个池化层;第五层是一个全连接 层进行非线性变换,最后连接一个输出层。
8.根据权利要求5所述的一种基于深度学习的芯片供电网络凸块电流估算系统,其特征 在于,卷积神经网络模块构建的神经网络损失函数采用L1Loss,PeakLoss和ZeroConstraint 的线性组合构成,计算公式为:
Loss=L1Loss+α*PeakLoss+β*ZeroConstraint
PeakLoss=(Ti-Pk)2+(Tj-Pl)2+|(k-i)(Ti-Pi)(Tk-Pk)|+|(l-j)(Tj-Pj)(Tl-Pl)|
Ti=max(target),Tj=min(target),Pk=max(prediction),Pl=min(prediction)
ZeroConstraint=sum(prediction)
式中,Loss代表训练使用的总损失函数,L1loss表示每个预测值和实际值之间的绝对值 误差,n表示预测值的长度即Bump的数量,i表示预测值向量的的第i个值,PeakLoss表示 测试数据预测值的最大最小值和标签之间的误差,α表示PeakLoss在总损失函数中的权重, ZeroConstraint表示预测值总和与0之间的误差,β表示ZeroConstraint在总损失函数中的权重, Ti表示标签的最大值,Tj表示标签的最小值,Pk表示预测值的最大值,Pl表示预测值的最 小值,target表示标签,prediction表示预测值。
CN202110505699.7A 2021-05-10 2021-05-10 一种基于深度学习的芯片供电网络凸块电流估算方法及系统 Active CN113408226B9 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110505699.7A CN113408226B9 (zh) 2021-05-10 2021-05-10 一种基于深度学习的芯片供电网络凸块电流估算方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110505699.7A CN113408226B9 (zh) 2021-05-10 2021-05-10 一种基于深度学习的芯片供电网络凸块电流估算方法及系统

Publications (3)

Publication Number Publication Date
CN113408226A CN113408226A (zh) 2021-09-17
CN113408226B CN113408226B (zh) 2023-03-24
CN113408226B9 true CN113408226B9 (zh) 2023-10-27

Family

ID=77678316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110505699.7A Active CN113408226B9 (zh) 2021-05-10 2021-05-10 一种基于深度学习的芯片供电网络凸块电流估算方法及系统

Country Status (1)

Country Link
CN (1) CN113408226B9 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI815410B (zh) * 2022-04-22 2023-09-11 創意電子股份有限公司 晶片功率消耗的分析器及其分析方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI625681B (zh) * 2017-05-11 2018-06-01 國立交通大學 神經網路處理系統
CN108090658A (zh) * 2017-12-06 2018-05-29 河北工业大学 基于时域特征参数融合的电弧故障诊断方法
CN109598768B (zh) * 2018-10-11 2023-03-28 天津大学 基于卷积神经网络的电学层析成像图像重建方法
CN112348159A (zh) * 2019-08-07 2021-02-09 青岛鼎信通讯股份有限公司 一种故障电弧神经网络优化训练方法
KR102163828B1 (ko) * 2019-09-24 2020-10-12 한국생산기술연구원 용접 파형의 스패터 예측을 위한 머신 러닝 시스템 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于神经网络的模拟IC测试分类研究;杨建宁等;《半导体技术》;20050323(第03期);45-48 *

Also Published As

Publication number Publication date
CN113408226B (zh) 2023-03-24
CN113408226A (zh) 2021-09-17

Similar Documents

Publication Publication Date Title
US20200272777A1 (en) Machine-Learning Design Enablement Platform
US8176454B2 (en) Non-invasive timing characterization of integrated circuits using sensitizable signal paths and sparse equations
US11604917B2 (en) Static voltage drop (SIR) violation prediction systems and methods
CN111985155B (zh) 基于集成深度神经网络的电路健康状态预计方法及系统
US20230195986A1 (en) Method for predicting delay at multiple corners for digital integrated circuit
US20130030730A1 (en) Non-invasive leakage power device characterization of integrated circuits using device grouping and compressive sensing
TW202107327A (zh) 使用基於機器學習的編碼在電子電路佈局中的圖案分類
CN113408226B9 (zh) 一种基于深度学习的芯片供电网络凸块电流估算方法及系统
WO2024011877A1 (zh) 基于特征选择和深度学习的集成电路路径延时预测方法
Jin et al. Emgraph: Fast learning-based electromigration analysis for multi-segment interconnect using graph convolution networks
CN114065693A (zh) 超大规模集成电路结构布局的优化方法、系统和电子设备
US20220138496A1 (en) Power estimation using input vectors and deep recurrent neural networks
US20220067481A1 (en) Determining ir drop
US20230214575A1 (en) Static voltage drop (sir) violation prediction systems and methods
US10635770B1 (en) Methods, systems, and computer program products for implementing an electronic design with hybrid analysis techniques
CN115455891A (zh) 一种模拟集成电路前仿过程的预测寄生参数方法及系统
Dong et al. Worst-case power integrity prediction using convolutional neural network
CN115438619A (zh) 基于迁移学习的自动化芯片布线系统及方法
US20050278664A1 (en) Predicting power consumption for a chip
CN113468837B (zh) 一种芯片供电网络凸块电流的估算方法及系统
Lee et al. i TPlace: machine learning-based delay-aware transistor placement for standard cell synthesis
US20230334379A1 (en) Energy-efficient capacitance extraction method based on machine learning
Shrestha et al. EDA-ML: Graph Representation Learning Framework for Digital IC Design Automation
US20210264087A1 (en) Automatic test pattern generation (atpg) for parametric faults
Hoser et al. Explorations in Application of Machine Learning in Pre-Synthesis Power Estimation of Digital Systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CI03 Correction of invention patent

Correction item: Denomination of Invention|Abstract|Claims|Description

Correct: A Deep Learning Based Method and System for Estimating Convex Current in Chip Power Supply Networks|correct

False: A Method and System for Estimating Convex Fast Current in Chip Power Supply Networks Based on Deep Learning|error

Number: 12-02

Page: ??

Volume: 39

Correction item: Denomination of Invention

Correct: A Deep Learning Based Method and System for Estimating Convex Current in Chip Power Supply Networks

False: A Method and System for Estimating Convex Fast Current in Chip Power Supply Networks Based on Deep Learning

Number: 12-02

Volume: 39

CI03 Correction of invention patent
OR01 Other related matters
OR01 Other related matters