CN116992806A - 一种基于自注意力机制的大规模模拟集成电路自动优化方法 - Google Patents
一种基于自注意力机制的大规模模拟集成电路自动优化方法 Download PDFInfo
- Publication number
- CN116992806A CN116992806A CN202311098334.2A CN202311098334A CN116992806A CN 116992806 A CN116992806 A CN 116992806A CN 202311098334 A CN202311098334 A CN 202311098334A CN 116992806 A CN116992806 A CN 116992806A
- Authority
- CN
- China
- Prior art keywords
- self
- circuit
- attention
- neural network
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000007246 mechanism Effects 0.000 title claims abstract description 30
- 238000003062 neural network model Methods 0.000 claims abstract description 53
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000010606 normalization Methods 0.000 claims description 16
- 238000011156 evaluation Methods 0.000 claims description 12
- 238000004088 simulation Methods 0.000 claims description 9
- 230000008034 disappearance Effects 0.000 claims description 3
- 238000004880 explosion Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000013461 design Methods 0.000 abstract description 29
- 238000004422 calculation algorithm Methods 0.000 abstract description 14
- 238000010801 machine learning Methods 0.000 abstract description 5
- 239000000306 component Substances 0.000 description 8
- 230000002787 reinforcement Effects 0.000 description 4
- 235000013599 spices Nutrition 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000002068 genetic effect Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012821 model calculation Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000002759 z-score normalization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
- G06F30/32—Circuit design at the digital level
- G06F30/337—Design optimisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/02—Reliability analysis or reliability optimisation; Failure analysis, e.g. worst case scenario performance, failure mode and effects analysis [FMEA]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Design And Manufacture Of Integrated Circuits (AREA)
Abstract
本发明属于集成电路设计技术领域,尤其为一种基于自注意力机制的大规模模拟集成电路自动优化方法,该基于自注意力机制的大规模模拟集成电路自动优化方法通过建立的自注意力神经网络模型对电路器件参数变量进行测算,自注意力神经网络模型能够捕捉电路器件参数变量序列中更长距离的依赖关系,从而提供更全局的信息表示,大大提升优化模型的表示能力;该自注意力神经网络模型通过将自注意力机制与传统机器学习算法相结合,能够在原有优化能力的基础上捕捉更多信息,增强对不同设计参数和电路性能的建模能力,锻炼模型的表示能力,提升自注意力神经网络模型的推理速度和训练效率,实现优化速度与优化精度的兼顾。
Description
技术领域
本发明属于集成电路设计技术领域,具体涉及一种基于自注意力机制的大规模模拟集成电路自动优化方法。
背景技术
优化模拟集成电路的流程可概括如下(如图1所示):给定设计指标和电路拓扑结构后,基于相关优化方法或者个人经验,设计人员确定满足预设指标的电路设计参数。随着集成电路的规模日益增大、结构趋于复杂,电路设计由原来的使用传统人工,逐渐变为依赖于电子设计自动化技术(EDA)。工业级大规模模拟电路具有高维度、非线性的特征,参数空间庞大且复杂度极高,不同性能指标之间可能存在相互制约的关系。如何处理大规模模拟集成电路的参数优化问题已然成为实际设计应用中的一大挑战,深刻影响着集成电路行业的发展。
目前主流的对集成电路进行优化的方法分为元启发式算法、机器学习算法两类。其中,元启发式算法利用组合和迭代的方式来寻找最优解,典型的元启发式算法包括遗传算法(GA)、粒子群优化(PSO)、蚁群算法等;利用机器学习算法,如深度学习、强化学习等,通过对大量数据进行学习和训练,通过建立模型和自适应搜索以达到自动探索和优化模拟电路参数的目标。目前行业内在进行模拟集成电路的参数设计优化主流使用的遗传算法、强化学习等算法,在处理工业级的大规模复杂模拟集成电路的问题中优化能力不足,普遍存在优化速度慢、电路性能不稳定,甚至经常出现无解的情况,设计求解时严重依赖模拟电路工程师的个人经验与技术积累,极大影响了集成电路的设计效率与生产周期。
发明内容
本发明旨在提供一种基于自注意力机制的大规模模拟集成电路自动优化方法,解决现有技术中对大规模模拟集成电路的优化能力不足、效率不高的技术问题。
Transformer模型在2017年一经提出便引起学术界的广泛关注。通过引入自注意力机制、并行计算、残差连接和层归一化等机制,其表示能力、训练效率和上下文建模能力均得到显著提升,已成为许多任务的主流模型。例如,DETR模型在多个目标检测任务中取得了优于传统卷积神经网络的性能;GPT-3则可以进行自然语言生成、问答、文本分类等多种任务,并且在某些情况下的表现甚至可以超越人类。基于此,本申请发明人提出一种将前沿的Transformer技术实现对电路设计参数进行分析设计的方法。
本发明采用以下技术方案:
一种基于自注意力机制的大规模模拟集成电路自动优化方法,包括:
确定电路拓扑结构,定义关于所述电路拓扑结构中元器件的N个电路器件参数变量,并设定各电路器件参数变量的取值范围;
对N个所述电路器件参数变量赋第一参数值,将N个所述电路器件参数变量写入电路网表并进行仿真,得到第一电路性能值;
基于所述电路拓扑结构,建立自注意力神经网络模型,确定所述电路拓扑结构的性能优化目标值,将所述性能优化目标值、N个所述电路器件参数变量的第一参数值、所述第一电路性能值输入所述自注意力神经网络模型,通过所述自注意力神经网络模型计算输出N个所述电路器件参数变量的第二参数值,通过电路仿真计算N个所述电路器件参数变量的第二参数值对应的第二电路性能值;
进行性能评估:将所述第二电路性能值与所述性能优化目标值归一化计算损失值,若所述损失值小于阈值,表明评估结果达标,则直接采用N个所述电路器件参数变量的第二参数值,若所述损失值大于阈值,表明评估结果不达标,则通过反向传播机制对所述自注意力神经网络模型的各项参数进行计算更新,并对N个所述电路器件参数变量的值进行更新;
将N个所述电路器件参数变量更新后的值,以及所述性能优化目标值、所述第一电路性能值输入参数更新后的自注意力神经网络模型,通过参数更新后的自注意力神经网络模型计算输出N个所述电路器件参数变量新的参数值,通过电路仿真计算N个所述电路器件参数变量新的参数值对应的新的电路性能值,基于新的电路性能值进行性能评估,直到电路性能值评估达标或所述自注意力神经网络模型达到预设训练次数,保存最终的自注意力神经网络模型。
优选的,所述建立自注意力神经网络模型包括:设置用于接收输入电路器件参数变量序列的自注意力层P;设置用于进行参数矩阵的拆分与并行计算的多头注意力层Q;设置用于缓解模型训练中的梯度消失和梯度爆炸问题的残差连接层W和层归一化层O;由所述自注意力层P、多头注意力层Q、残差连接层W和层归一化层O构成所述自注意力神经网络模型。
优选的,所述对N个所述电路器件参数变量赋第一参数值包括:在各电路器件参数变量的取值范围内赋随机值,或者对N个所述电路器件参数变量赋固定值。
优选的,所述自注意力神经网络模型依托OpenAI平台运行。
优选的,当有新的性能优化目标值时,直接调用最终的自注意力神经网络模型来算出所需的各电路器件参数变量的值。
与现有技术相比,本发明的有益效果是:1、该基于自注意力机制的大规模模拟集成电路自动优化方法通过建立的自注意力神经网络模型对电路器件参数变量进行测算,自注意力神经网络模型能够捕捉电路器件参数变量序列中更长距离的依赖关系,从而提供更全局的信息表示,大大提升优化模型的表示能力;2、该自注意力神经网络模型通过将自注意力机制与传统机器学习算法相结合,能够在原有优化能力的基础上捕捉更多信息,增强对不同设计参数和电路性能的建模能力,锻炼模型的表示能力,提升自注意力神经网络模型的推理速度和训练效率,实现优化速度与优化精度的兼顾;3、该基于自注意力机制的大规模模拟集成电路自动优化方法可保存复用多种复杂电路的自注意力神经网络模型,当有电路设计需求时,直接调用相应模型计算参数,能够显著提高复杂模拟集成电路的优化效率。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为对模拟集成电路的设计参数进行优化的流程图。
图2为本发明基于自注意力机制的大规模模拟集成电路自动优化方法一实施例的总流程图。
图3为本发明基于自注意力机制的大规模模拟集成电路自动优化方法一实施例中自注意力神经网络模型对电路器件参数变量进行优化的流程图。
图4为采用本发明基于自注意力机制的大规模模拟集成电路自动优化方法应用于工业级电路的实例图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在一个实施例中,提供一种基于自注意力机制的大规模模拟集成电路自动优化方法,结合图2所示,该基于自注意力机制的大规模模拟集成电路自动优化方法包括以下步骤:
(1)确定电路拓扑结构,定义关于电路拓扑结构中元器件的N个电路器件参数变量,并设定各电路器件参数变量的取值范围。
本步骤中,是根据定义的设计目标来固定电路拓扑结构,比如,需要优化性能指标Bi(i=1,2,3…)达到目标值bi,可以选择具有相关性能的A电路,这里Bi可以是增益(Gain)、增益带宽积(GBW)、电源波纹抑制比(PSRR)等,而电路A对应可以是LDO电路、轨对轨放大电路等。电路A中各元器件的参数决定着目标值bi,这里的电路器件参数是指电路A中相关元器件的参数,比如,对于电阻来说,电路器件参数为电阻值,对于电容来说,电路器件参数为电容值,对于MOS管来说,则需要设置源极、漏极和栅极各自工作电压三个参数等等,各元器件的尺寸也是需要设置的参数,这N个电路器件参数变量根据具体的电路A来确定。这里的取值范围是通过PDK(Process Design Kit)文件设定各电路器件参数变量的合理取值范围。
(2)对N个电路器件参数变量赋第一参数值,将N个电路器件参数变量写入电路网表并进行仿真,得到第一电路性能值。
这里是在各电路器件参数变量的取值范围内赋随机值,或者对N个电路器件参数变量赋固定值,得到各电路器件参数变量的第一参数值。
此步骤中进行电路仿真有如下方法:将本轮生成的N个电路器件参数变量的第一参数值写入电路网表,调用电路仿真器进行计算得到当前电路性能值,即第一电路性能值,这里,电路仿真可以在开源spice上进行,如ngspice、hspice、spectre等,也可以在商业spice上进行,还可以在独立开发的spice上进行。
(3)结合图3所示,基于电路拓扑结构,建立自注意力神经网络模型,确定电路拓扑结构的性能优化目标值,将性能优化目标值、N个电路器件参数变量的第一参数值、第一电路性能值输入自注意力神经网络模型,通过自注意力神经网络模型计算输出N个电路器件参数变量的第二参数值,通过电路仿真计算N个电路器件参数变量的第二参数值对应的第二电路性能值。
本步骤中,建立自注意力神经网络模型具体包括:设置用于接收输入电路器件参数变量序列的自注意力层P,自注意力层P是对电路拓扑结构中不同元器件之间的关系进行建模得到的;设置用于进行参数矩阵的拆分与并行计算的多头注意力层Q;设置用于缓解模型训练中的梯度消失和梯度爆炸问题的残差连接层W和层归一化层O;由自注意力层P、多头注意力层Q、残差连接层W和层归一化层O构成自注意力神经网络模型。
自注意力层P、多头注意力层Q、残差连接层W和层归一化层O是Transformer模型中的关键组件,它们之间的相互联系和排列顺序如下:
自注意力层P:该层是Transformer模型的核心组件之一,它接收输入序列并计算每个位置的注意力权重,用于捕捉序列中各个位置的依赖关系。
多头注意力层Q:在这一层,自注意力层的输出被分成多个头,每个头执行独立的自注意力计算,这样可以使模型同时关注不同的输入信息。
残差连接层W:在多头注意力层之后,会应用残差连接。残差连接是指将多头注意力层的输出与输入进行元素级别的相加操作,以便保留输入信息。这有助于减轻梯度消失问题,使得模型更容易训练。
层归一化层O:在残差连接层之后,应用层归一化,层归一化是一种归一化技术,它对每个样本的特征进行归一化处理,以加速模型的收敛和改善模型的鲁棒性。
因此,它们的排列顺序是:P→Q→W→O。即首先应用自注意力层P,然后是多头注意力层Q,接着是残差连接层W,最后是层归一化层O。
Transformer是一个成熟模型,这里不再对自注意力层P、多头注意力层Q、残差连接层W和层归一化层O的具体架构进行赘述。
建立的自注意力神经网络模型中每个神经网络层的层数、神经元个数、激活函数根据电路拓扑结构的实际电路器件参数变量的规模进行灵活调整,建立的自注意力神经网络模型依托OpenAI平台运行。
第二电路性能值是通过spice电路仿真得到。
(4)进行性能评估:将第二电路性能值与性能优化目标值归一化计算损失值,若损失值小于阈值,表明评估结果达标,则直接采用N个电路器件参数变量的第二参数值,若损失值大于阈值,表明评估结果不达标,则通过反向传播机制对自注意力神经网络模型的各项参数进行计算更新,并对N个电路器件参数变量的值进行更新。
这里,采用的归一化方法可以是最大归一化、最小归一化、z-score归一化或小数标定归一化,也可以是对数变换归一化。计算损失值可以采用平均绝对误差、均方误差或交叉熵等方法。
(5)将N个电路器件参数变量更新后的值,以及性能优化目标值、第一电路性能值输入参数更新后的自注意力神经网络模型,通过参数更新后的自注意力神经网络模型计算输出N个电路器件参数变量新的参数值,通过电路仿真计算N个电路器件参数变量新的参数值对应的新的电路性能值,基于新的电路性能值进行性能评估,按照上述方式,直到电路性能值评估达标或自注意力神经网络模型达到预设训练次数,保存最终的自注意力神经网络模型。
保存自注意力神经网络模型后,在需要进行大规模模拟集成电路设计时,可实现秒级的直接调用,平均优化精度比目前的前沿方法(如强化学习算法)大幅提升。该自注意力神经网络模型可应用于多个工业级电路(如LDO电路、轨对轨放大电路等),并且应用效果优异,实现优化精度与优化速度的最佳兼顾。
在一个具体的应用实例中,通过该基于自注意力机制的大规模模拟集成电路自动优化方法对一个轨对轨放大电路进行优化,如图4所示,该轨对轨放大电路的是使用多个晶体管级联,使输入信号可以在整个电路中进行更多次的放大。因其具有低失真、高稳定性和高精度等特点,轨对轨放大电路在传感器接口、数据采集和医疗仪器等许多领域中具有广泛应用。在优化该电路过程中,首先确定优化目标为增益(Gain)和增益带宽积(GBW);然后根据电路结构设计参数序列,如对晶体管的宽度设为同一变量,不同功能的晶体管的宽度设为不同变量,最终确定数十维设计参数序列;接下来搭建自注意力神经网络模型结构,自注意力层为4层神经网络,每层的神经元个数为64,共256个神经元,multi-head数目为2以实现并行计算,并添加残差连接层和层归一化层;调用hspice计算得到轨对轨电路当前的性能值;将本轮设计参数变量序列、优化目标、当前性能值输入自注意力神经网络模型,根据当前性能值与性能优化目标值两者之间相对误差计算loss(损失值)后进行反向传递,迭代更新自注意力神经网络模型参数与轨对轨放大电路的设计参数。经过训练,成功实现了对设计参数维度庞大的轨对轨放大电路的性能建模与参数优化,该优化方法对比强化学习、遗传算法等方法具有更低的拟合误差。通过本方法优化的轨对轨放大电路已完成流片,并通过了性能测试。
与目前主流的电路优化方案相比,该基于自注意力机制的大规模模拟集成电路自动优化方法具有以下优势:1、目前主流方法在大规模模拟集成电路的参数优化问题上陷入瓶颈,迫切需要创新的优化方法解决电路参数空间庞大、设计指标相互制约的难题。本发明首创性地将广泛应用于自然语言处理、计算机视觉等领域的自注意力机制引入集成电路设计领域,是自注意力机制在模拟集成电路设计领域的首次应用。它能够捕捉输入序列中更长距离的依赖关系,从而提供更全局的信息表示,大大提升优化模型的表示能力,具有极强的理论创新性;2、主流方法在大规模模拟集成电路的参数优化问题上普遍存在优化能力不足的问题,存在优化速度慢、电路性能不稳定、甚至经常出现无解的情况。本方法将自注意力机制与传统机器学习算法相结合,能够在原有优化能力的基础上捕捉更多信息,增强对不同设计参数和电路性能的建模能力,锻炼模型的表示能力,提升自注意力神经网络模型的推理速度和训练效率,实现优化速度与优化精度的兼顾;3、主流方法依赖于电路设计师的背景知识和经验积累,本发明可保存复用多种复杂电路的自注意力神经网络模型,有电路设计需求时直接调用相应模型计算参数,经过在多个工业级电路的应用,取得了优异的应用效果,显著提高复杂模拟集成电路的优化效率。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解,在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (5)
1.一种基于自注意力机制的大规模模拟集成电路自动优化方法,其特征在于,包括:
确定电路拓扑结构,定义关于所述电路拓扑结构中元器件的N个电路器件参数变量,并设定各电路器件参数变量的取值范围;
对N个所述电路器件参数变量赋第一参数值,将N个所述电路器件参数变量写入电路网表并进行仿真,得到第一电路性能值;
基于所述电路拓扑结构,建立自注意力神经网络模型,确定所述电路拓扑结构的性能优化目标值,将所述性能优化目标值、N个所述电路器件参数变量的第一参数值、所述第一电路性能值输入所述自注意力神经网络模型,通过所述自注意力神经网络模型计算输出N个所述电路器件参数变量的第二参数值,通过电路仿真计算N个所述电路器件参数变量的第二参数值对应的第二电路性能值;
进行性能评估:将所述第二电路性能值与所述性能优化目标值归一化计算损失值,若所述损失值小于阈值,表明评估结果达标,则直接采用N个所述电路器件参数变量的第二参数值,若所述损失值大于阈值,表明评估结果不达标,则通过反向传播机制对所述自注意力神经网络模型的各项参数进行计算更新,并对N个所述电路器件参数变量的值进行更新;
将N个所述电路器件参数变量更新后的值,以及所述性能优化目标值、所述第一电路性能值输入参数更新后的自注意力神经网络模型,通过参数更新后的自注意力神经网络模型计算输出N个所述电路器件参数变量新的参数值,通过电路仿真计算N个所述电路器件参数变量新的参数值对应的新的电路性能值,基于新的电路性能值进行性能评估,直到电路性能值评估达标或所述自注意力神经网络模型达到预设训练次数,保存最终的自注意力神经网络模型。
2.根据权利要求1所述的基于自注意力机制的大规模模拟集成电路自动优化方法,其特征在于,所述建立自注意力神经网络模型包括:设置用于接收输入电路器件参数变量序列的自注意力层P;设置用于进行参数矩阵的拆分与并行计算的多头注意力层Q;设置用于缓解模型训练中的梯度消失和梯度爆炸问题的残差连接层W和层归一化层O;由所述自注意力层P、多头注意力层Q、残差连接层W和层归一化层O构成所述自注意力神经网络模型。
3.根据权利要求1所述的基于自注意力机制的大规模模拟集成电路自动优化方法,其特征在于,所述对N个所述电路器件参数变量赋第一参数值包括:在各电路器件参数变量的取值范围内赋随机值,或者对N个所述电路器件参数变量赋固定值。
4.根据权利要求1所述的基于自注意力机制的大规模模拟集成电路自动优化方法,其特征在于:所述自注意力神经网络模型依托OpenAI平台运行。
5.根据权利要求1所述的基于自注意力机制的大规模模拟集成电路自动优化方法,其特征在于:当有新的性能优化目标值时,直接调用最终的自注意力神经网络模型来算出所需的各电路器件参数变量的值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311098334.2A CN116992806A (zh) | 2023-08-29 | 2023-08-29 | 一种基于自注意力机制的大规模模拟集成电路自动优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311098334.2A CN116992806A (zh) | 2023-08-29 | 2023-08-29 | 一种基于自注意力机制的大规模模拟集成电路自动优化方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116992806A true CN116992806A (zh) | 2023-11-03 |
Family
ID=88526747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311098334.2A Pending CN116992806A (zh) | 2023-08-29 | 2023-08-29 | 一种基于自注意力机制的大规模模拟集成电路自动优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116992806A (zh) |
-
2023
- 2023-08-29 CN CN202311098334.2A patent/CN116992806A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116702678B (zh) | 一种融合深度学习和群智能算法的dtco优化方法 | |
US7657416B1 (en) | Hierarchical system design | |
JP5006214B2 (ja) | ばらつきシミュレーション・システム、ばらつき決定モデル方法と装置ならびにプログラム | |
CN110083125B (zh) | 一种基于深度学习的机床热误差建模方法 | |
CN107784180B (zh) | 一种时变凸二次规划求解器设计方法 | |
Shokouhifar et al. | Simplified symbolic transfer function factorization using combined artificial bee colony and simulated annealing | |
CN111191361A (zh) | 一种基于随机森林的螺旋电感建模方法 | |
CN115906303A (zh) | 一种基于机器学习的平面微波滤波器设计方法及装置 | |
US20220121800A1 (en) | Methods of generating circuit models and manufacturing integrated circuits using the same | |
CN114841106A (zh) | 一种基于规则引导的遗传算法的集成电路优化方法及系统 | |
CN117556775A (zh) | 多目标芯片电路参数优化设计方法 | |
CN110110406B (zh) | 一种基于Excel计算平台实现LS-SVM模型的边坡稳定性预测方法 | |
CN112580288B (zh) | 基于多梯度神经网络的半导体器件特性建模方法和系统 | |
Ma | Realization of artificial intelligence interactive system for advertising education in the era of 5G integrated media | |
CN116992806A (zh) | 一种基于自注意力机制的大规模模拟集成电路自动优化方法 | |
CN115879412A (zh) | 一种基于迁移学习的版图层级电路图尺寸参数优化方法 | |
CN115906741A (zh) | 一种基于高性能计算的射频电路寻优设计方法 | |
CN113836174B (zh) | 基于强化学习dqn算法的异步sql连接查询优化方法 | |
CN115455891A (zh) | 一种模拟集成电路前仿过程的预测寄生参数方法及系统 | |
Wang | BP network implementation based on computer MATLAB neural network toolbox | |
CN114611990A (zh) | 一种网络信息体系要素体系贡献率评估方法和装置 | |
CN116861782B (zh) | 基于机器学习和节点有效电容的线延时预测方法 | |
Sudjianto et al. | Single-index model tree | |
CN112463643A (zh) | 一种软件质量预测方法 | |
Liu et al. | High-Efficiency Multiobjective Synchronous Modeling and Solution of Analog ICs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |